Coluna

Olavo Amaral

Inteligência artificial: a ciência rumo à obsolescência?

25 de abril de 2023

Temas

Compartilhe

Os avanços de modelos como o GPT-4 ainda nos trazem mais dúvidas que respostas sobre o futuro, mas parece inegável que nossa maneira de fazer ciência vai mudar radicalmente

Não é de hoje que o mundo se preocupa com o impacto da automação de funções desempenhadas por humanos – algo que incomoda muita gente desde a revolução industrial . Nos últimos anos, porém, os avanços da inteligência artificial tornaram a preocupação mais aguda. De operadores de telemarketing a motoristas de caminhão, economistas apostam há anos nas próximas profissões a desaparecer, geralmente focando nas de baixa complexidade.

Dito isso, o futuro nem sempre é fácil de prever – e ninguém imaginaria há alguns anos que os frutos da ciência talvez comecem por substituir os próprios cientistas.

Em 2020, o AlphaFold , um modelo de inteligência artificial desenvolvido pela DeepMind, subsidiária do Google, realizou um feito assombroso. Com base no treinamento em proteínas com estruturas conhecidas, ele tornou-se extremamente proficiente em prever a estrutura de proteínas a partir de suas sequências de aminoácidos.

Antes do AlphaFold, estruturas completas sempre dependeram de métodos complicados – e caros – de observação, como cristalografia com difração de raios-X e ressonância magnética nuclear. Com isso, milhares de cientistas se especializaram em determinar estruturas de proteínas específicas ao longo das últimas décadas – e fazer isso um punhado de vezes já renderia uma carreira.

Em 2021, em um único artigo, os criadores do Alpha Fold publicaram de uma só vez 350.000 estruturas de proteínas – incluindo o proteoma inteiro da espécie humana. Um ano mais tarde, seu banco de dados foi expandido para 200 milhões de estruturas , incluindo a maioria das proteínas conhecidas na natureza.

O AlphaFold não acabou com a biologia estrutural – assim como calculadoras e computadores não acabaram com a matemática ou com a contabilidade. Proteínas, afinal, não existem em isolamento, e sua estrutura não depende apenas de sua sequência, mas também do meio que as cerca – o que faz com que as previsões do AlphaFold não sejam perfeitas. Ainda assim, uma tarefa que ocuparia milhares de carreiras há alguns anos foi resolvida – mesmo que de forma preliminar – de uma tacada só, e trabalhar com estrutura de proteínas tornou-se indissociável da nova tecnologia.

A história pode parecer uma anedota particular em uma área do conhecimento específica. Mas os novos – e amplamente divulgados – avanços da inteligência artificial, liderados pelos grandes modelos de linguagem como o GPT-4 e popularizados pela explosão do ChatGPT , ameaçam tornar o mergulho de campos inteiros da ciência rumo à obsolescência em uma questão muito mais ampla.

Ninguém imaginaria há alguns anos que os frutos da ciência talvez comecem por substituir os próprios cientistas

Ainda que sejam treinados na tarefa singela de prever a continuação de uma sequência de texto , o aumento do poder computacional e dos volumes de dados envolvidos têm feito com que modelos de linguagem adquiram por tabela habilidades inesperadas – tipicamente chamadas de propriedades emergentes – as quais incluem o domínio de linguagens de programação e princípios básicos de matemática.

Dentre essas habilidades, está uma capacidade notável de apreender conceitos de diversas áreas, bem como sintetizar de forma eficiente aquilo que “leem”. Isso faz com que o GPT-4 seja capaz de passar em testes de conhecimento sobre inúmeros temas, que vão da física à psicologia. Com isso, é bem possível que nossos competidores (ou auxiliares) não-humanos em breve sejam polímatas muito além do nosso alcance – e talvez venham a transformar a atividade científica completamente.

Não surpreendentemente, o primeiro campo virado de cabeça pra baixo por essas tecnologias vem sendo o estudo da própria linguagem. Num artigo recente , o linguista Steven Piantadosi argumenta que os atuais modelos – capazes de navegar a complexidade da linguagem na ausência de estruturação particular para isso – refutam de forma categórica as teorias de uma “gramática inata” popularizadas por Noam Chomsky. Não sou nenhum linguista para opinar na discussão, mas o artigo me parece bem mais convincente do que as opiniões algo arrogantes do próprio Chomsky sobre os modelos de linguagem.

Para além da linguagem, modelos capazes de desenvolver capacidades cognitivas colocam na mesa formas completamente novas de responder perguntas centenárias da psicologia do desenvolvimento. Iniciativas como o BabyLM têm estimulado cientistas a treinarem modelos de linguagem com quantidades de palavras comparáveis às que uma criança precisa para começar a falar, de forma a explicar por que ainda parecemos ser capazes de fazê-lo com menos dados . E é possível que os resultados desse tipo de experimento nos revelem mais sobre como aprendemos do que décadas de pesquisa em seres humanos.

Por fim, o fato de que a tarefa aparentemente simples de predizer palavras seja capaz de gerar comportamentos complexos tem uma relevância enorme para a neurociência cognitiva. Em particular, ele dá suporte a teorias influentes sobre a consciência que enxergam o cérebro como uma grande máquina de inferência probabilística . Aliás, não surpreende que seu proponente mais célebre, o físico inglês Karl Friston, tenha resolvido ir trabalhar em uma empresa de inteligência artificial .

Para além do que os modelos atuais possibilitam, é possível que mais revoluções estejam logo ali na esquina. Há duas semanas, um grupo de químicos americanos descreveu um agente baseado no GPT-4 que, recebendo acesso a um robô e uma bancada de laboratório, foi capaz de planejar e realizar a síntese de inúmeros compostos químicos. Isso não garante que ele possa substituir um cientista, mas sugere que ele já possa atuar como um técnico de laboratório qualificado. Também não faltam exemplos de uso do ChatGPT para a redação de artigos científicos , e relatos anedóticos sugerem que ele possa atuar como um revisor razoável dos mesmos.

O que tudo isso quer dizer? Por ora, a resposta é uma grande interrogação . Até porque o que mais assusta não são as capacidades atuais do GPT-4, e sim a velocidade enorme com que os modelos vêm progredindo, com saltos gigantescos de performance a cada vez que os tornamos maiores e os treinamos com mais dados. Com isso, parece questão de tempo – e um tempo curto – para que tenhamos formas de inteligência ainda mais impressionantes competindo conosco.

É claro que não há garantia que essas previsões se realizem – até porque os riscos envolvidos no processo podem convencer legisladores de que precisamos andar mais devagar . Mas qualquer que seja o caminho que tomarmos, parece inegável que mudanças grandes nos esperam – e que a forma com que fizemos ciência nas últimas décadas deve mudar radicalmente. E ainda que não possamos prever como, é provável que devêssemos pelo menos estar pensando no assunto.

Em 2021, o psicólogo e neurocientista Tal Yarkoni se disse surpreso pelo número de pessoas que dão como certa a chegada de alguma forma de inteligência artificial geral nos próximos 20 anos, e ainda assim trabalham em projetos de pesquisa que só darão frutos em 50 a 100 anos. Ele coloca que “a não ser que você esteja nessa pelo prazer intelectual, se sua projeção para a inteligência artificial vem antes de que sua pesquisa tenha um impacto real no mundo, você pode estar apostando no cavalo errado”. Coincidência ou não, Yarkoni deixou sua posição acadêmica na Universidade do Texas no mesmo ano para ir trabalhar como cientista de dados no Twitter – e é difícil não ver coerência em sua decisão.

Seria a hora dos cientistas básicos jogarem a toalha, dada a probabilidade de que algo mais capaz do que nós estará em breve fazendo o que fazemos hoje, porém numa velocidade muito maior? Pode não haver uma resposta óbvia, mas a pergunta é válida. E mesmo que a aposentadoria pareça uma decisão extrema, parece um bom momento para tentar entender o que está se passando , e repensar prioridades. Se alguém disser que não tem tempo pra isso, porque tem que publicar um artigo que vai ajudar a curar uma doença em 50 anos, cabe desconfiar que isso seja só conversa pra boi dormir – ou pra seguir sendo pago pra fazer a mesma coisa de sempre.

Olavo Amaralé médico, escritor e professor da UFRJ. Foi neurocientista por duas décadas e hoje se dedica à promoção de uma ciência mais aberta e reprodutível. Coordena a Iniciativa Brasileira de Reprodutibilidade, uma replicação multicêntrica de experimentos da ciência biomédica brasileira, e o No-Budget Science, um coletivo para catalisar projetos dedicados a construir uma ciência melhor. Como escritor, é autor de Dicionário de Línguas Imaginárias e Correnteza e Escombros

Os artigos publicados pelos colunistas são de responsabilidade exclusiva de seus autores e não representam as ideias ou opiniões do Nexo.

Navegue por temas