« (...) A mente humana não é, como o ChatGPT e os seus semelhantes, uma pesada máquina estatística que procura padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. (...)»
Jorge Luís Borges escreveu que viver num tempo de grandes perigos e promessas é experimentar tanto a tragédia quanto a comédia, com «a iminência de uma revelação» na compreensão de nós mesmos e do mundo. Hoje, os nossos supostamente revolucionários avanços em inteligência artificial (IA) são de facto motivo tanto de preocupação como de otimismo. Preocupação, porque tememos que o tipo mais popular e moderno de IA – aprendizagem automática (machine learning) – deteriore a nossa ciência e enfraqueça a nossa ética ao incorporar na nossa tecnologia uma conceção fundamentalmente defeituosa da linguagem e do conhecimento.
O ChatGPT da OpenAI, o Brad da Google e o Sydney da Microsoft são maravilhas da aprendizagem automática (machine learning). De um modo geral, estes recolhem enormes quantidades de dados, procuram padrões e tornam-se cada vez mais proficientes em gerar resultados estatisticamente prováveis – tais como a linguagem e pensamento aparentemente humanos. Estes programas têm sido aclamados como os primeiros vislumbres no horizonte da IA geral – aquele momento há muito profetizado em que mentes mecânicas ultrapassam os cérebros humanos não só quantitativamente em termos de velocidade de processamento e tamanho de memória, mas também qualitativamente em termos de perceção intelectual, criatividade artística e todas as outras faculdades distintamente humanas.
Esse dia pode vir a ter lugar, mas o seu amanhecer ainda não se vislumbra, ao contrário do que se lê em manchetes hiperbólicas e é considerado por investimentos imprudentes. A revelação borgesiana da compreensão não ocorreu e não ocorrerá – e, afirmamos, não poderá ocorrer – se os programas de aprendizagem automática (machine learning), como o ChatGPT, continuarem a dominar o campo da IA. Por muito úteis que estes programas possam ser em alguns domínios restritos (podem ser úteis na programação de computadores, por exemplo, ou na sugestão de rimas para versos leves), sabemos pela ciência da linguagem e pela filosofia do conhecimento que estes diferem profundamente do modo como os seres humanos raciocinam e usam a linguagem. Estas diferenças colocam limitações significativas ao que estes programas podem fazer, codificando-os com defeitos ineludíveis.
Simultaneamente cómico e trágico
É em simultâneo cómico e trágico, como Borges terá notado, que tanto dinheiro e atenção sejam concentrados em tão poucas coisas – algo tão trivial quando comparado com a mente humana, que por força da linguagem, nas palavras de Wilhelm Von Humboldt, pode fazer «uso infinito de meios finitos», criando ideias e teorias com alcance universal.
A mente humana não é, como o ChatGPT e os seus semelhantes, uma pesada máquina estatística que procura padrões semelhantes, devorando centenas de terabytes de dados e extrapolando a resposta mais provável numa conversa ou a resposta mais plausível para uma pergunta científica. Pelo contrário, a mente humana é um sistema surpreendentemente eficiente e mesmo elegante que opera com pequenas quantidades de informação; procura não inferir correlações brutas entre dados, mas criar explicações.
Por exemplo, uma jovem criança que adquire uma língua está a desenvolver – inconsciente, automática e rapidamente a partir de dados mínimos – uma gramática, um sistema extraordinariamente sofisticado de princípios e parâmetros lógicos. Esta gramática pode ser entendida como uma expressão do “sistema operativo” inato e geneticamente instalado que confere ao ser humano a capacidade de gerar frases complexas e pensamento muito extensos. Quando os linguistas procuram desenvolver uma teoria sobre a razão pela qual uma determinada língua funciona da forma como funciona («Porque são estas – mas não aquelas frases – consideradas gramaticais?»), estão a construir consciente e laboriosamente uma versão explícita da gramática que a criança constrói instintivamente e com uma exposição mínima à informação. O sistema operativo da criança é completamente diferente do de um programa de aprendizagem automática (machine learning).
Na verdade, tais programas estão presos numa fase pré-humana ou não-humana da evolução cognitiva. A sua falha mais profunda é a ausência de capacidade mais crítica de qualquer inteligência: dizer não só o que é o caso, o que foi o caso e o que será o caso – isso é descrição e previsão – mas também o que não é o caso e o que poderia e não poderia ser o caso. Estes são os ingredientes da explicação, a marca da verdadeira inteligência.
Eis um exemplo. Suponha que segura uma maçã com as mãos. De seguida, deixa-a cair e, observando o resultado, diz: «A maçã cai.» Isto é uma descrição. Uma previsão poderia ter sido a afirmação «A maçã cairá se eu abrir a minha mão». Ambas são importantes e ambas podem ser corretas. Mas uma explicação é algo mais: inclui não só descrições e previsões, mas também conjeturas contrafactuais como «Qualquer objeto semelhante cairia», a que se acrescentaria a afirmação adicional «devido à força da gravidade» ou «devido à curvatura do espaço-tempo» ou algo semelhante. Esta é uma explicação causal: «A maçã não teria caído se não fosse pela força da gravidade.» Isto é raciocínio.
O cerne da aprendizagem automática (machine learning) é a descrição e a previsão; não postula sobre quaisquer mecanismos causais ou leis físicas. É claro que qualquer explicação ao estilo humano não é necessariamente correta; nós somos falíveis. Mas isto faz parte do que significa pensar: para estar certo, deve ser possível estar errado. A inteligência faz-se não só de conjeturas criativas, mas também de críticas criativas. O pensamento ao estilo humano é baseado em possíveis explicações e na correção de erros, um processo que gradualmente limita as possibilidades que podem ser consideradas racionalmente. (Como Sherlock Holmes disse ao Dr. Watson: «Quando se eliminou o impossível, o que quer que reste, por mais improvável que seja, deve ser a verdade»).
Mas o ChatGPT e programas semelhantes são, por conceção, ilimitados no que podem "aprender" (ou seja, memorizar); são incapazes de distinguir o possível do impossível. Ao contrário dos seres humanos, que são, por exemplo, dotados de uma gramática universal que limita as línguas que podemos aprender àquelas que possuem uma certa elegância quase matemática, estes programas aprendem com a mesma facilidade línguas humanamente possíveis e humanamente impossíveis. Enquanto os humanos estão limitados aos tipos de explicações que podem ser avaliadas racionalmente, os sistemas de aprendizagem automática (machine learning) podem aprender tanto que a terra é plana como que a terra é redonda. Estes trabalham apenas com probabilidades que mudam ao longo do tempo.
Pura pseudociência
Por esta razão, as previsões dos sistemas de aprendizagem automática (machine learning) serão sempre superficiais e duvidosas. Dado que estes programas não conseguem explicar as regras da sintaxe inglesa, por exemplo, podem muito bem prever, incorretamente, que «John é demasiado teimoso para conversar» significa que John é tão teimoso que não fala com ninguém (quando a interpretação correta poderá ser que ele é tão teimoso que não se consegue falar com ele). Porque é que um programa de aprendizagem automática havia de fazer a predição de uma coisa tão estranha? É que o programa consegue funcionar por analogia com o padrão inferido de frases como «John ate an apple» (literalmente, «o John comeu uma maçã») e «John ate» (literalmente, «o John comeu»), a última das quais significa que o John comeu qualquer coisa. O programa poderia predizer que, como «John is too stubborn to talk to Bill» («o John é demasiado teimoso para falar com o Bill») é semelhante a «o John comeu uma maçã», então «John is too stubborn to talk to» («o John é demasiado teimoso para se conversar com ele») é semelhante a «John ate» («o John comeu»). As explicações corretas da linguagem são complicadas e não podem ser aprendidas apenas por trabalhar com grande quantidade de informação.
Perversamente, alguns entusiastas da aprendizagem automática (machine learning) parecem estar orgulhosos pelo facto de as suas criações poderem gerar previsões "científicas" corretas (por exemplo, sobre o movimento dos corpos físicos) sem fazer uso de explicações (envolvendo, digamos, as leis do movimento e da gravitação universal de Newton). Mas este tipo de previsão, mesmo quando bem-sucedida, é pseudociência. Embora os cientistas procurem teorias que têm um elevado grau de corroboração empírica, como observou o filósofo Karl Popper, «não procuramos teorias altamente prováveis, mas explicações; ou seja, teorias poderosas e altamente improváveis».
A teoria de que as maçãs caem na terra porque esse é o seu lugar natural (perspetiva de Aristóteles) é possível, mas apenas convida a mais perguntas. (Porque é a terra o seu lugar natural?) A teoria de que as maçãs caem na terra porque a massa dobra o espaço-tempo (perspetiva de Einstein) é altamente improvável, mas, na realidade, diz porque elas caem. A verdadeira inteligência é demonstrada na capacidade de pensar e expressar coisas improváveis, mas perspicazes.
A verdadeira inteligência é também capaz de pensamento moral. Isto significa limitar a criatividade das nossas mentes, de outra forma ilimitada, com um conjunto de princípios éticos que determinam o que deve e não deve ser (e, claro, sujeitar esses mesmos princípios à crítica criativa). Para ser útil, o ChatGPT deve ter o poder de gerar resultados inovadores; para ser aceitável para a maioria dos seus utilizadores, deve manter-se afastado de conteúdos moralmente censuráveis. Mas os programadores do ChatGPT e outras maravilhas da aprendizagem automática (machine learning) têm tido dificuldades – e continuarão a ter – em alcançar este tipo de equilíbrio.
Em 2016, por exemplo, o Chatbot Tay da Microsoft (precursor do ChatGPT) inundou a Internet com conteúdos misóginos e racistas, em consequência da ação online de trols, que o encheram de dados ofensivos. Como resolver o problema no futuro? Na ausência de uma capacidade de raciocinar a partir de princípios morais, o ChatGPT foi cruamente impedido pelos seus programadores de contribuir com qualquer coisa nova para discussões controversas – isto é, importantes. Essa opção sacrificou a criatividade a uma espécie de amoralidade.
Resumidamente, o ChatGPT e os seus semelhantes são constitucionalmente incapazes de equilibrar a criatividade com o constrangimento. Estes ou geram em excesso (produzindo tanto verdades como falsidades, apoiando tanto decisões éticas como pouco éticas) ou geram em défice (exibindo falta de compromisso com quaisquer decisões e indeferença às consequências). Devido à amoralidade, ciência falsa e incompetência linguística destes sistemas, só nos resta rir ou chorar pela sua popularidade.
Noam Chomsky e Ian Roberts são professores de linguística. Jeffrey Watumull é diretor de inteligência artificial de uma empresa de ciência e tecnologia.
Cf. Por uma história social da IA + Como identificar uma imagem criada por Inteligência Artificial? O caso do casaco do Papa + Como usar o ChatGPT para fazer em minutos o que demorava horas + Computadores que contam histórias vão alterar o curso da história humana + O futuro face aos avanços da Intrligência Artificial e da Biotecnologia (Yuval Harari) + A inteligência artificial aceita limites? + A inteligência artificial, os homens e os deuses + IA: Eliminar os germes — e a dissidência…+ Por trás do mito da “IA objetiva” + O complexo internético + Face à IA e ao Algoritmo «será importante criarmos zonas de resistência física e mental, clareiras de silêncio» + «Alucinar» é a palavra do ano de 2023 para o Dicionário de Cambridge e a culpa (e o problema) é da inteligência artificial + José Gil: com a IA «seremos mais simples e pequenos, pobres e felizes» + A inteligência artificial em 2023. E as perspectivas para 2024 + Há professores a dar notas a textos do ChatGPT para desafiar os alunos a fazer melhor + As Iniciativas Regulatórias Europeias na Inteligência Artificial + Tradução Automática com IA vs Interpretação Profissional em congressos e eventos: a análise detalhada + Google reforça IA para combater anúncios falsos e desinformação política + OpenAI desenvolve modelo para clonar vozes. É possível evitar abusos? + Na luta contra a desinformação, Google vê a IA como vilã e heroína + Tudo com IA: a nova busca do Google muda a forma como usamos a internet + Língua portuguesa entra na era da IA + Nicolelis explica por que não precisamos temer a Inteligência Artificial + A inteligência artificial que ature os negacionistas + Quando o chatGPT tenta ser Paulo Freire + Luis Montenegro anuncia lançamento de modelo de linguagem de Inteligência Artificial em português
Artigo dos linguistas Noam Chomsky e Ian Roberts e do especialista em inteligência artificial Jeffrey Watumull, publicado no dia 8 de março de 2023 no New York Times.