A estranha origem das habilidades de “raciocínio” da IA
Englishto
Em julho de 2020, um grupo de jogadores no 4chan descobriu que, ao pedir a um personagem virtual do AI Dungeon para resolver um problema de matemática “explicando passo a passo”, o modelo de inteligência artificial não apenas chegava à solução, mas o fazia assumindo a personalidade do personagem escolhido. O detalhe surpreendente: eles estavam entre os primeiros no mundo a ver em ação o que hoje chamamos de “cadeia de raciocínio” — a técnica que permite que grandes modelos de linguagem expliquem as etapas de um raciocínio, e não apenas forneçam a resposta final. Hoje, o marketing das grandes empresas de tecnologia fala de “modelos que raciocinam”, de chatbots que “pensam antes de responder” ou que são “capazes de mostrar seus pensamentos”. Mas a verdade é que o que parece ser um avanço da engenharia surgiu em meio a piadas obscenas e memes em um fórum de má reputação. A ideia de que as IAs aprenderam a raciocinar como seres humanos é uma narrativa muito mais recente do que a realidade técnica por trás dela. Tudo gira em torno de um mal-entendido: achamos que a cadeia de raciocínio é a prova de que um modelo raciocina, porque nos fornece uma explicação detalhada, passo a passo. Na verdade, o modelo está apenas imitando os textos que leu — incluindo centenas de milhares de soluções para problemas matemáticos repletos de frases como “Espere, não. A pergunta é…”, “Primeiro eu deveria verificar a entrada” e “Espere, mas nos casos em que…”. Em vez de raciocinar, ele simula o raciocínio. Os protagonistas desta história não são os pesquisadores do Google ou da OpenAI, mas um grupo de jogadores anônimos e um jovem entusiasta de informática, Zach Robertson. No 4chan, em meio a comentários exagerados, alguém escreve: “Faz sentido, já que ele se baseia na linguagem humana, que você precise falar com ele como se fosse uma pessoa para obter uma resposta coerente”. Enquanto isso, Robertson publica um post sobre como “amplificar as capacidades do GPT-3” dividindo os problemas em várias etapas e o apresenta em setembro de 2020, sem saber que havia contribuído para um dos avanços mais celebrados da IA. Hoje, ele é doutorando em Stanford, mas parece se lembrar pouco daquela descoberta: seu post havia desaparecido até que o chamaram a atenção para ele, e a fama não lhe interessa. O cerne da questão é o seguinte: as empresas que desenvolvem IA começaram a vender esses modelos como “modelos de raciocínio”, mas a verdadeira diferença não é estrutural. A cadeia de raciocínio funciona porque adiciona contexto: quanto mais detalhes houver na pergunta, mais o modelo é direcionado para uma resposta precisa. É o mesmo princípio pelo qual, se você perguntar algo vago ao ChatGPT, muitas vezes receberá respostas vagas. Se você dividir o problema em etapas, o modelo terá mais pistas sobre para onde ir. A Apple demonstrou, em um estudo intitulado “A ilusão do pensamento”, que esses modelos podem resolver corretamente um problema, mas falham se a pergunta for reformulada com detalhes irrelevantes — em alguns casos, o desempenho cai 65%. E, às vezes, a linha de raciocínio que ele gera não tem nenhuma ligação real com a solução final. Há quem diga: se uma máquina nos engana tão bem que parece estar raciocinando, então ela realmente está raciocinando. Mas os dados contam uma história diferente: a cadeia de raciocínio é um truque linguístico, não uma janela para a mente da máquina. Se você achava que os chatbots “realmente pensavam”, essa história obriga você a olhar por baixo dos panos e ver que, muitas vezes, eles estão apenas interpretando um papel. A cadeia de raciocínio é uma encenação bem elaborada, não uma prova de consciência. No Lara Notes, há um gesto que você não encontra em nenhum outro lugar: I'm In. Não é um coração, não é um joinha. É a sua declaração: agora, essa ideia diz respeito a você. E, se você for conversar com alguém sobre como a cadeia de raciocínio das IAs surgiu entre gamers e memes, no Lara Notes você pode marcar quem estava presente com o Shared Offline — porque certos assuntos merecem ser lembrados. Isso é do The Atlantic: você acabou de economizar mais de três minutos em relação à leitura do artigo original.
0shared

A estranha origem das habilidades de “raciocínio” da IA