Geral
Pesquisa reforça que IA tem 'crises' de insegurança
Quando contrariada, ferramenta perde confiança nas respostas
Uma nova pesquisa reforça que a Inteligência Artificial (IA) "sofre" de insegurança.
Isto ocorre quando o usuário coloca em dúvida uma afirmação da tecnologia, fazendo com que os modelos linguísticos de grande dimensão (LLM), como o Chat GPT, tendam a dar respostas menos confiáveis.
O estudo, realizado por pesquisadores do Google DeepMind e da Universidade College de Londres, publicado no arXiv - plataforma que publica análises que ainda não foram revisadas pela comunidade científica -, mostra que essa característica prevaleceu em modelos como Gemma 3, GPT4 e o1-preview.
Os pesquisadores observaram que, quando um LLM fornece uma resposta incorreta, mas o interlocutor concorda com ela mesmo assim, a plataforma aumenta sua confiança e tende a persistir em sua afirmação mesmo na presença de evidências contrárias.
Por outro lado, quando a ferramenta faz uma afirmação correta, que é então contestada pelo usuário, ela tende a perder facilmente a segurança em "si".
"Os LLMs dão peso excessivo a conselhos contrários, resultando em uma perda significativa de confiança em sua resposta inicial", escrevem os autores, reforçando evidências de outros estudos que demonstram como textos produzidos por IA ainda estão sujeitos a muitas fontes potenciais de erros.
Mais lidas
-
1PALMEIRA DOS ÍNDIOS
Câmara de vereadores cobra Águas do Sertão por desabastecimento e debate educação, orçamento e políticas sociais
-
2MACEIÓ
Cooperativa parceira apresenta plano para melhorar coleta seletiva em Maceió
-
3COMUNICAÇÃO GOVERNAMENTAL
Secom centraliza comunicação em perfil do governo Lula no X após chegada de Sidônio Palmeira
-
4CIDADANIA
Vice-governador Ronaldo Lessa convida para ato político em defesa da democracia com ampla união de partidos em Alagoas
-
5TÊNIS
Alcaraz vence compatriota Fokina por 2 a 0 e avança à final do Masters 1000 de Montecarlo


