SABERES TRANSDISCIPLINARES E ORGÂNICOS.

domingo, 30 de novembro de 2025

A IA é PODEROSA, mas precisa de SUPERVISÃO humana e VALIDAÇÃO contínua.



Modelos de IA estão ERRANDO mais do que parece.


📍Um novo estudo do Columbia Journalism Review avaliou a taxa de ALUCINAÇÃO (quando a IA afirma algo FALSO como se fosse VERDADE) ao pedir que diferentes modelos identificassem a fonte de notícias reais.

Os resultados mostram um alerta:

✅ Grok-3 errou 94% das vezes
✅ Grok-2: 77%
✅ Gemini: 76%
✅ Deepseek: 68%
✅ ChatGPT: 67%
✅ Perplexity Pro: 45%
✅ Copilot: 40%
✅ Perplexity: 37% (melhor desempenho)

Mesmo trechos que um simples Google encontraria em segundos foram respondidos com SEGURANÇA… e de forma ERRADA.

Essas alucinações acontecem porque os sistemas de treinamento padrão recompensam as SUPOSIÇÕES em vez de mostrar INCERTEZA.

A IA é PODEROSA, mas precisa de SUPERVISÃO humana e VALIDAÇÃO contínua.

Nenhum comentário:

Postar um comentário