MIT ensina modelos de IA a dizer 'não tenho certeza' — e reduz erros de confiança em até 90%

Pesquisadores do MIT criaram uma técnica que reduz em até 90% os erros de calibração de confiança em modelos de IA — basicamente, ensinando a máquina a dizer "não tenho certeza" quando realmente não tem.
O método se chama RLCR (Reinforcement Learning with Calibration Rewards) e ataca um problema raiz das alucinações: o treinamento padrão com RL só recompensa acertos e pune erros, sem meio-termo, fazendo o modelo responder tudo com a mesma certeza inabalável. O RLCR adiciona o Brier score à função de recompensa, penalizando respostas confiantes mas erradas. Nos testes com um modelo de 7 bilhões de parâmetros, a calibração melhorou drasticamente sem perder precisão — inclusive em datasets nunca vistos.
Para áreas como medicina e finanças, onde decisões dependem da confiança do modelo, isso muda o jogo.
👉 Leia o artigo completo de Rachel Gordon no MIT News
Créditos: Rachel Gordon / MIT News — Abril 2026


