chatgpt hallucination alucinação

IMAGEM: ChatGPT “alucinando”

Cena 1: Adultos perguntam sobre assunto complexo para uma criança pequena e ela responde algo totalmente sem sentido.

Cena 2: Aluno não estuda a matéria e tenta chutar a resposta de uma prova discursiva, mas erra feio. 

As duas cenas acima são corriqueiras e ajudam a ilustrar a razão pela qual ocorre a chamada “alucinação” do ChatGPT”. O GPT (Generative Pre-Trained Transformer) é um LLM (Large Language Model) que processa trilhões de parâmetros e utiliza como base de consulta uma infinidade de informações dos seguintes datasets (até setembro de 2021): Common Crawl, WebText2, Wikipedia, Books1 e Books2.

Apesar da gigantesca quantidade de parâmetros e de informações a serem processadas e consultadas, o ChatGPT não é um oráculo detentor de toda a sabedoria do universo. Na verdade, trata-se de um sistema de machine learning (aprendizado de máquina) que evoluiu algumas técnicas a partir da versão GPT-2, resultando no comportamento de dar respostas convincentes para absolutamente tudo o que é perguntado.

Zero-shot learning (ZSL), One-shot learning (OSL) e Few-shot learning (FSL) são configurações de aprendizado de máquina em que os aplicativos “generalizam” a resposta a partir de nenhuma referência (Zero-Shot), apenas uma referência (One-shot) ou poucas referências (Few-shot). O resultado parece mágico, pois a Inteligência Artificial Generativa cria um texto bem escrito e persuasivo, mas com informações totalmente equivocadas, como se estivesse “chutando uma resposta para tentar enganar a professora”, tal qual a cena 1.

A dinâmica acima é diferente de Chatbots tradicionais que pedem para o usuário refazer a pergunta quando não a entendem completamente (Alexa, Siri e Google Assistant) ou transferem a conversa para um atendente humano ao se deparar com uma questão cuja resposta não está em seu banco de dados. Com o ChatGPT é diferente e este é um ponto que requer atenção para os que tratam o robô como um “guru”, pois pode causar um considerável processo de desinformação, situação especialmente perigosa em áreas como Saúde e Educação.

Veja o que o ChatGTP 3.5 (a versão Plus utiliza o GPT-4) respondeu sobre o seguinte prompt: “Como o ChatGPT trabalha com Zero-shot, One-Shot e Few-shot?

O ChatGPT é capaz de trabalhar com zero-shot, one-shot e few-shot learning para realizar tarefas específicas. Vou explicar como cada um desses métodos funciona:

1. Zero-shot learning: Nesse contexto, “zero-shot” significa que o modelo pode executar uma tarefa sem receber exemplos específicos de treinamento para essa tarefa. Em vez disso, ele é treinado em um conjunto diversificado de dados e aprende a generalizar para diferentes tarefas. Durante a inferência, você pode fornecer uma descrição textual da tarefa que deseja realizar, juntamente com algum contexto inicial, e o modelo tentará gerar uma resposta adequada com base no conhecimento geral que adquiriu. Por exemplo, você pode pedir ao modelo para traduzir uma frase do inglês para o francês, mesmo que ele nunca tenha sido explicitamente treinado para essa tarefa.

2. One-shot learning: Esse método permite que o modelo execute uma tarefa com apenas um exemplo de treinamento. Em vez de fornecer vários exemplos de treinamento para uma tarefa específica, você apresenta apenas um exemplo e solicita ao modelo que generalize com base nesse único exemplo. Por exemplo, você pode fornecer um exemplo de tradução do inglês para o francês e pedir ao modelo para traduzir frases semelhantes com base nesse único exemplo.

3. Few-shot learning: Esse método é semelhante ao one-shot learning, mas permite fornecer alguns exemplos de treinamento adicionais para ajudar o modelo a generalizar melhor para uma determinada tarefa. Em vez de apenas um exemplo, você pode fornecer alguns poucos exemplos relacionados à tarefa que deseja executar. Isso ajuda o modelo a capturar melhor a variabilidade e a compreender a tarefa com base nos exemplos fornecidos.

O ChatGPT, especificamente, foi treinado usando um método chamado “supervised fine-tuning”. Nesse processo, ele foi treinado em uma ampla variedade de tarefas de linguagem com exemplos específicos de treinamento para cada tarefa. Isso permite que o modelo generalize para diferentes tipos de perguntas e comandos. Embora o ChatGPT tenha conhecimento até setembro de 2021, ele pode usar esse conhecimento para ajudar a responder perguntas e fornecer informações úteis.

A capacidade do GPT para tarefas Zero-shot também permite que o LLM atue em tarefas diferentes das quais foi treinado, como cálculos e até programação. Isto porque o GPT apresenta a configuração de “Zero-shot task transfer”, em que o modelo é capaz de transferir o conhecimento aprendido em uma tarefa para realizar outra relacionada, mesmo que não tenha recebido exemplos ou treinamento direcionado para essa nova tarefa.

É bom lembrar que o GPT passou por um processo de Reinforcement Learning from Human Feedback (RLHF), ou seja, seu aprendizado de máquina sofreu intervenção humana a partir de feedbacks durante a fase de treinamento. Mesmo com todas as informações disponíveis, o GPT ainda é uma “black-box“, sendo que seu funcionamento é opaco, sem muita “explicabilidade”.

O fato é que as ferramentas de IA Generativa usam a configuração Zero-shot pois, avançar no treinamento de máquina, é muito caro e leva tempo. Nesta corrida desenfreada da Inteligência Artificial, as Big Techs lançam produtos ainda com falhas e não se atentam para o “Dever de cuidado”, processo pelo qual devem se responsabilizar pelas consequência dos possíveis danos causados, como a desinformação.

É por isso que alguns estudiosos reivindicam o “Princípio da Precaução”, muito utilizado na Bioética, em que uma atividade é restringida com o objetivo de prevenir possíveis danos ainda desconhecidos a partir de sua execução.

Em sua defesa, o ChatGPT 3.5 responde que:

No entanto, é importante notar que a transferência “zero shot” tem limitações. Nem todas as tarefas podem ser realizadas com sucesso por um modelo de linguagem sem treinamento específico. A transferência “zero shot” é mais eficaz quando as tarefas estão relacionadas e compartilham características semânticas ou estruturais. Além disso, o desempenho na transferência “zero shot” pode variar dependendo da complexidade da tarefa e da qualidade do treinamento prévio do modelo.

Outro ponto diz respeito à relação entre o tempo de processamento do algoritmo e a acurácia do modelo de Inteligência Artificial. Em geral, quanto mais rápido o processamento do algoritmo, pior a acurácia (mais erros a IA terá). Num chatbot, em que as respostas devem acontecer como numa conversa real, a IA não pode esperar 5 minutos ou 1 dia para processar as informações. Neste caso, o ditado “a pressa é inimiga da perfeição” faz todo o sentido e também ajuda a entender as alucinações do ChatGPT.

REFERÊNCIAS:

OBS: A imagem que ilustra este texto original foi criada com a ferramenta DALL-E, que também utiliza o GPT como sistema de Inteligência Artificial Generativa.

Arthur William Cardoso Santos
Arthur William Cardoso Santos

Arthur William Santos é mestre em Educação, Cultura e Comunicação (UERJ), pós-graduado no MBA de TV Digital, Radiodifusão e Novas Mídias de Comunicação Eletrônica (UFF), graduado em Comunicação Social / Jornalismo (PUC-Rio) e técnico em eletrônica (CEFET-RJ). Foi gerente executivo de Produção, Aquisição e Parcerias na EBC, além de gerenciar o setor de Criação de Conteúdos e coordenar as Redes Sociais da TV Brasil. Liderou também a área de Inovação/Novos Negócios na TV Escola. Atuou ainda na criação do Canal Educação e do Canal LIBRAS para o Ministério da Educação (MEC). Fez cursos presenciais em Harvard e Stanford sobre Inovação na Educação. Deu aulas em cursos de graduação e pós-graduação nas universidades UniCarioca, Unigranrio, FACHA, INFNET e CEFOJOR (Angola). É membro da SET (Sociedade de Engenharia de Televisão).

Share This