Modelos de IA estão ERRANDO mais do que parece.
📍Um novo estudo do Columbia Journalism Review avaliou a taxa de ALUCINAÇÃO (quando a IA afirma algo FALSO como se fosse VERDADE) ao pedir que diferentes modelos identificassem a fonte de notícias reais.
Os resultados mostram um alerta:
✅ Grok-3 errou 94% das vezes
✅ Grok-2: 77%
✅ Gemini: 76%
✅ Deepseek: 68%
✅ ChatGPT: 67%
✅ Perplexity Pro: 45%
✅ Copilot: 40%
✅ Perplexity: 37% (melhor desempenho)
Mesmo trechos que um simples Google encontraria em segundos foram respondidos com SEGURANÇA… e de forma ERRADA.
Essas alucinações acontecem porque os sistemas de treinamento padrão recompensam as SUPOSIÇÕES em vez de mostrar INCERTEZA.
A IA é PODEROSA, mas precisa de SUPERVISÃO humana e VALIDAÇÃO contínua.
Ative para ver a imagem maior.
Nenhum comentário:
Postar um comentário