0

Um estudo recente da Giskard, empresa francesa especializada em testes de inteligência artificial, revela que instruções para respostas curtas podem comprometer a precisão de modelos de IA, especialmente quando envolvem temas ambíguos ou mal definidos. Segundo a pesquisa, esse tipo de orientação aumenta significativamente a ocorrência de “alucinações” — respostas incorretas apresentadas com segurança pela IA.

O motivo, segundo os pesquisadores, está na falta de espaço para que os modelos identifiquem ou esclareçam premissas problemáticas, o que reduz a capacidade de análise crítica e contextualização. A pressão por concisão acaba forçando respostas rápidas, mesmo quando seria necessário um raciocínio mais elaborado.

A análise envolveu grandes modelos de linguagem como o GPT-4o (OpenAI), Claude 3.7 Sonnet (Anthropic) e Mistral Large, apontando que o fenômeno é comum a diferentes arquiteturas. O estudo reforça a importância de formular perguntas com clareza e permitir espaço suficiente para que a IA desenvolva uma resposta mais robusta e precisa.

Justiça de Goiás proíbe Amazon de exibir anúncios e cobrar taxa extra de antigos assinantes do Prime Video

Artigo anterior

Suspeitos de assaltar ônibus são presos com réplica de arma e celulares em Salvador

Próximo artigo

Você pode gostar

Comentários

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais sobre Tecnologia