Há um ano, a OpenAI lançava o ChatGPT e as narrativas distópicas se avolumaram – a Inteligência Artificial vai roubar nossos empregos, superar os humanos ou até mesmo extinguir a humanidade. Há duas semanas, as especulações cresceram com a demissão do CEO Sam Altman da empresa, sendo instantaneamente admitido pela Microsoft e, dois dias depois, readmitido pela OpenAI – no final da coluna, coloquei links de boas fontes sobre o que rolou e está rolando, porque neste texto vamos direto para a discussão mais ampla.
A questão central é a inteligência artificial geral (AGI): sistemas autônomos que superam os humanos nas tarefas economicamente mais valiosas. Os pesquisadores consideram a matemática uma fronteira do desenvolvimento de IA generativa. Atualmente, a IA generativa é boa na escrita e na tradução de idiomas – apenas “boa”, logo vamos ver o porquê –, prevendo estatisticamente a próxima palavra, e as respostas à mesma pergunta podem variar amplamente. Mas conquistar a capacidade de fazer matemática, onde só existe uma resposta certa, implica que a IA teria capacidades de raciocínio semelhantes à inteligência humana.
O chatGPT faz o uso do algoritmo com uma técnica inicialmente desenvolvida para trabalhar com linguagem natural, que é a linguagem que nós usamos, objetivando, por exemplo, “detectar contexto” em que as palavras são ditas. Porque cada palavra pode mudar conforme o contexto (banco: sentar em um banco, tirar dinheiro do banco ou informações do banco de dados). Há também as metáforas (uma criança pequena, por exemplo, tem dificuldade de entender quando a mãe diz “seu pai ficou preso no escritório”). As diversas técnicas de Processamento de Linguagem Natural tentam prever a próxima palavra a ser dita. Tipo qual palavra vem depois de “Oi, como vai ….”? ou “The book is on the…”? Então, o que o GPT faz (T de Transformers) é escolher a melhor palavra que vem depois e nisso a IA se revela uma excelente adivinhadora.
O CEO do Google, Sundar Pichai, disse, no entanto, que há muito ainda para se desvendar de um aspecto nas Large Language Models “que todos nós chamamos de caixa preta”. Porque os programadores não sabem como a IA escolhe as palavras, qual é o caminho que ela usa. É uma caixa preta. Cora Rónai, da plataforma Meio, participou recentemente da Intel Innovation, em San José, na Califórnia, e comentou sobre um projeto apresentado na feira que corrigia redações, mas não funcionava a pleno porque existem palavras que são homônimas mas não homógrafas, como traz e trás, por exemplo. “A IA não consegue identificar o erro no contexto porque a palavra existe. Essa é uma questão muito interessante, o desafio da tecnologia frente à linguagem”, ponderou Cora.
Há mais de cinco anos, pelo menos, já há conversas entre máquinas. Alguns programadores de IA, games, robótica, etc., estão fazendo esses exercícios em que tentam analisar os diálogos. Em geral, parecem conversas desprovidas de sentido, porque a IA não tem filtros e vai falando livremente, fazendo associações livres – o que também faríamos mais intensamente, não fosse nosso senso de censura. Isso lembra “a limpeza da chaminé” de que falou Anna O. naquela primeira “sessão de análise” da história, com Breuer, e que acabou servindo de base para Freud desenvolver toda a sua obra. Foi o estímulo a falar o mais naturalmente possível, deixar brotar automaticamente do inconsciente o que determinou a psicanálise. Na “associação livre” se analisa como se completam as falas em relação a diversas situações. Assim, observando o diálogo das máquinas, alguns programadores encontraram uma boa forma de brainstorm. Conversei um tempinho atrás com um programador, Hobbert Evergreen, que me disse que “ver uma IA falando sobre algo que você conhece, mesmo que falando baboseiras, potencializa a criatividade. Ela, por falar qualquer coisa, não tem filtros e abre portas para os nossos filtros.” Nos diálogos entre humanos e máquinas surgem outros pontos como a abertura da IA frente a questões variadas. Hobbert contou que uma pessoa lhe disse gostar de “discutir religião” com a IA porque ela não faz julgamentos que um padre faria. Ou mesmo o que o interlocutor de uma religião diferente faria.
Há também o aprendizado a partir da interação entre máquinas, como num jogo de xadrez, que exige um movimento de peças muito bem pensado. Humanos estão aprendendo estratégias observando como as máquinas jogam entre si. No jogo Go, que é ainda mais complexo, a IA consegue elaborar estratégia visando uma jogada lá na frente. Eu me pergunto se esses aprendizados se abrirão em outras áreas. Por exemplo, duas máquinas poderiam analisar e trocar informações sobre imagens de ressonância magnética do cérebro, digamos, proporcionando, assim, aprendizado a um neurologista? Daí já estaria sendo rompido o limite de aprendizado da máquina só a partir dos dados que fornecemos, certo? Mesmo que a partir destes dados? E na linguagem? Na conversa entre duas IAs, na medida que já escreve histórias e não se sabe ainda como escolhe as palavras – e há diferentes respostas em diferentes línguas –, seria daí que poderia estar sendo criado um novo modelo de linguagem? E como serão as associações? Lágrima, por exemplo, palavra que vem do latim lachrima, com o mesmo significado, para os japoneses é um ideograma que junta “água e olho”.
Muitas novas questões estão surgindo, até porque “reflexão” e “meta-cognição”, por exemplo, são palavras que já entraram para o vocabulário da IA de forma consistente e não mais hipotética, segundo Hobbert. A forma de apresentar as soluções e os conteúdos abordados pelo ChatGPT já estão realmente apontando para modelos que serão criados a partir de outros modelos. E dessa vez será mais rápido. Ele acredita que existe uma chance gigantesca da sociedade não ser a mesma nos próximos 10 anos. E valores como “família, dinheiro, emprego, festas, prazer, poder, política, educação” passarão por ressignificações. O que na verdade já está acontecendo, mas ficará ainda mais agudo. Considerando a nova questão agora de AGI e um novo modelo capaz de resolver problemas matemáticos, como o Q* – embora o desempenho em matemática ainda seja apenas no nível de alunos do ensino fundamental –, essas transformações agudas parecem ainda mais plausíveis.
Voltamos, então, à questão das decisões de rumo da IA. Como a bomba atômica, a criação foi ciência e o seu uso foi decisão política. Da mesma forma, a IA é criação científica, mas seu uso é político. E quem tem poder de decisão em nosso mundo é uma elite financeira. Muitas vezes nem mesmo os criadores científicos participam de vereditos finais político/econômicos. Vejam no artigo de Pedro Dória, nos links, como agora ficou absolutamente clara a prioridade do dinheiro na OpenAI: “(…) conforme Altman retomava seu posto, ganhava assento no conselho da nova OpenAI o economista Larry Summers. Secretário do Tesouro no segundo governo Bill Clinton, diretor do Conselho Econômico Nacional sob Barack Obama. Não foi chamado à toa — conhece todo mundo em Washington. E já chegará com argumento pronto. Quem segurar o desenvolvimento de IA pelos EUA periga ver a China chegando na frente.” E é aí que a porca torce o rabo de verdade, pois os chineses hoje não levam muito jeito para sutilezas e regulações, haja vista sua conduta na corrida das terapias gênicas – este será nosso assunto na próxima semana.
Por hora, é natural a angústia que estamos sentindo, mas nada de novo no front. O novo é sempre estranho, e sempre acontece. Nosso papel é administrar a angústia, o medo, pois o medo é péssimo companheiro. É muita narrativa que promove o medo, a mídia sendo a principal responsável. Medo vende. A mente humana fixa muito mais rapidamente uma experiência ruim do que uma boa e isso é usado o tempo todo, descaradamente. Mas a nossa mente é um campo de exploração sem limites e podemos voar muito alto, especialmente quando direcionamo-nos ao centro, ao nosso interior. Eu considero curtir boa ficção de tecnologia e metafísica como uma forma de enfrentar o medo. Isaac Asimov, Aldous Huxley, Carl Sagan, Ian McEwan, Marcelo Gleiser, Fritjof Capra, Miguel Nicolelis e Jacques Bergier, só para citar alguns autores geniais. E filmes interessantíssimos, sendo meus preferidos Blade Runner e Blade Runner, 2049, A chegada, Interestelar, Duna e, claro, 2001, uma odisseia no espaço.
Q* Fez A OpenAI alcançar a AGI? Sam Altman Foi Demitido Por Isso? Por Hobbert Evergreen, em 28/11
A OpenAI ameaça a humanidade? Por Pedro Doria, Canal Meio, em 25/11
Sam Altman volta à presidência da OpenAI. Pedro e Cora, Canal Meio, em 23/11
O que está acontecendo na OpenAI, empresa que criou o ChatGPT? BBC News Brasil, em 20/11