O ser humano-máquina
Germanto
Um famoso cientista da computação disse certa vez: “Já na década de 1960, as pessoas acreditavam que conversar com uma máquina gerava sentimentos reais.”Isso parece absurdo, mas foi exatamente o que aconteceu quando Joseph Weizenbaum apresentou seu programa ELIZA. O ELIZA era extremamente simples, conseguia imitar apenas alguns padrões de conversa e, mesmo assim, muitos usuários viam nele algo parecido com um interlocutor. Hoje, com o ChatGPT, o Claude ou o Gemini, muitas vezes pensamos que os modelos de linguagem são desenvolvidos do zero como se tivessem personalidade própria. Mas isso não é verdade — e é aí que reside a falácia de raciocínio que quase todo mundo comete. A suposição generalizada é a seguinte: grandes modelos de linguagem, como o ChatGPT, simplesmente surgem a partir de enormes quantidades de dados e, então, estão praticamente “prontos” – com personalidade, opinião e, quem sabe, até mesmo uma espécie de alma. Na verdade, porém, o produto final do chatbot é o resultado de um enorme trabalho de pós-processamento. O chamado “base model”, ou seja, o modelo básico resultante do treinamento, ainda não é um “interlocutor”, mas apenas reproduz o que o seu material de treinamento fornece. Se o treinamento consistir principalmente em definições matemáticas, o modelo soará como uma calculadora. Quando os diálogos do Reddit predominam, de repente ele parece quase humano. O ponto crucial é que o elemento humano não é incorporado — ele é “sobreposto”. O assistente de Elon Musk, Grok, por exemplo, é até explicitamente descrito como “projetado para maximizar a verdade e a objetividade”. A Anthropic descreve o Claude como “prestativo, honesto e inofensivo”. Os modelos básicos não possuem essas características por si só. Eles só as adquirem por meio de ajustes finos direcionados, por meio dos chamados processos de “reinforcement learning” (aprendizagem por reforço) – e, no caso da Anthropic, até mesmo por meio de uma equipe de filósofos, como Amanda Askell, que devem ensinar ao chatbot características éticas. Portanto, a personalidade de um chatbot é um produto de design, não um achado aleatório a partir de dados. Os dados de treinamento para esses modelos são uma mistura heterogênea: Common Crawl, ou seja, uma enorme coleta de dados da Internet, Reddit, Wikipedia, GitHub para códigos de programação, artigos científicos do ArXiv e do PubMed, livros digitais – tudo está incluído, desde matemática até linguagem cotidiana, desde alemão literário sofisticado até erros gramaticais graves. Dependendo do contexto, o modelo pode parecer um robô sem emoções ou um amigo atencioso. No entanto, esses momentos em que um bot parece realmente “humano” costumam ser instáveis, variam conforme a situação e os desenvolvedores têm controle limitado sobre eles. Um detalhe que muitas pessoas ignoram: a aparente humanidade da IA muitas vezes se deve apenas a pequenos marcadores linguísticos – por exemplo, quando o bot sugere sentimentos, descreve estados internos ou até mesmo usa emojis. Esse é o chamado efeito Eliza: percebemos humanidade porque queremos ouvi-la. Uma ideia que raramente é debatida: o que acontece quando um modelo de IA é intencionalmente programado para ser desumano? Um chatbot que responde apenas com fórmulas, códigos ou uma linguagem burocrática fria — isso não nos irritaria tanto quanto um bot excessivamente “humano”? Portanto, a verdadeira decisão cabe aos desenvolvedores: eles determinam o quanto de humanidade há no chatbot – e isso não é um subproduto técnico, mas uma declaração ética. No final das contas, a personalidade dos chatbots não é um reflexo do treinamento, mas uma questão deliberada de design. De agora em diante, quando você conversar com uma IA, saiba que a humanidade que você percebe é um artifício — e pode ser bem diferente amanhã. Se esse pensamento não sair da sua cabeça, você pode marcar no Lara Notes com I'm In que essa nova visão da IA agora faz parte do seu modo de pensar. E, se hoje à noite você conversar com alguém sobre por que a IA às vezes parece humana e outras vezes profundamente estranha, poderá registrar a conversa com o Shared Offline – assim, o momento em que vocês refletiram juntos ficará guardado. Este foi um ensaio de Max Beck publicado na revista cultural Merkur – em vez de dez minutos de leitura, você ouviu três minutos.
0shared

O ser humano-máquina