A inteligência artificial (IA) assumiu o centro das atenções na ciência básica. Os cinco vencedores dos Prêmios Nobel de Química e Física de 2024 compartilharam um fio condutor: IA.
De fato, muitos cientistas – incluindo os comitês do Nobel – estão celebrando a IA como uma força para transformar a ciência. Como disse um dos laureados, o potencial da IA para acelerar a descoberta científica a torna “uma das tecnologias mais transformadoras da história humana”. Mas o que essa transformação realmente significará para a ciência?
A IA promete ajudar os cientistas a fazer mais, mais rápido, com menos dinheiro. Mas também traz uma série de novas preocupações – e se os cientistas se apressarem com a adoção da IA, eles correm o risco de transformar a ciência em algo que escapa à compreensão e à confiança do público, e falha em atender às necessidades da sociedade.
As ilusões da compreensão
Especialistas já identificaram pelo menos três ilusões que podem enganar pesquisadores que usam IA.
A primeira é a “ilusão de profundidade explicativa”. Só porque um modelo de IA se destaca em prever um fenômeno — como o AlphaFold, que ganhou o Prêmio Nobel de Química por suas previsões de estruturas de proteínas — isso não significa que ele pode explicá-lo com precisão. Pesquisas em neurociência já mostraram que modelos de IA projetados para previsão otimizada podem levar a conclusões enganosas sobre os mecanismos neurobiológicos subjacentes.
A segunda é a “ilusão de amplitude exploratória”. Os cientistas podem pensar que estão investigando todas as hipóteses testáveis em sua pesquisa exploratória, quando na verdade estão apenas olhando para um conjunto limitado de hipóteses que podem ser testadas usando IA.
Finalmente, a “ilusão de objetividade”. Cientistas podem acreditar que modelos de IA são livres de viés, ou que podem levar em conta todos os vieses humanos possíveis. Na realidade, no entanto, todos os modelos de IA refletem inevitavelmente os vieses presentes em seus dados de treinamento e as intenções de seus desenvolvedores.
Ciência mais barata e rápida
Uma das principais razões para o crescente apelo da IA na ciência é seu potencial de produzir mais resultados, mais rapidamente e a um custo muito menor.
Um exemplo extremo desse impulso é a máquina “AI Scientist” desenvolvida recentemente pela Sakana AI Labs. A visão da empresa é desenvolver um “sistema totalmente orientado por IA para descoberta científica automatizada”, onde cada ideia pode ser transformada em um artigo de pesquisa completo por apenas US$ 15 – embora os críticos tenham dito que o sistema produziu “lixo científico sem fim”.
Queremos realmente um futuro em que artigos de pesquisa possam ser produzidos com apenas alguns cliques, simplesmente para “acelerar” a produção de ciência? Isso corre o risco de inundar o ecossistema científico com artigos sem significado e valor, sobrecarregando ainda mais um sistema de revisão por pares já sobrecarregado.
Podemos nos encontrar em um mundo onde a ciência, como a conhecíamos, está enterrada sob o ruído do conteúdo gerado pela IA.
Falta de contexto
A ascensão da IA na ciência ocorre em um momento em que a confiança pública na ciência e nos cientistas ainda é bastante alta, mas não podemos tomá-la como garantida. A confiança é complexa e frágil. Como aprendemos durante a pandemia da COVID, os apelos para “confiar na ciência” podem ser insuficientes porque as evidências científicas e os modelos computacionais são frequentemente contestados, incompletos ou abertos a várias interpretações.
No entanto, o mundo enfrenta uma série de problemas, como mudanças climáticas, perda de biodiversidade e desigualdade social, que exigem políticas públicas elaboradas com julgamento especializado. Esse julgamento também deve ser sensível a situações específicas, reunindo informações de várias disciplinas e experiências vividas que devem ser interpretadas através das lentes da cultura e dos valores locais.
Como argumentou um relatório do International Science Council publicado no ano passado, a ciência deve reconhecer nuances e contexto para reconstruir a confiança pública. Deixar a IA moldar o futuro da ciência pode minar o progresso duramente conquistado nessa área.
Se permitirmos que a IA assuma a liderança na investigação científica, corremos o risco de criar uma monocultura de conhecimento que prioriza os tipos de perguntas, métodos, perspectivas e especialistas mais adequados para a IA. Isso pode nos afastar da abordagem transdisciplinar essencial para a IA responsável, bem como do raciocínio público e do diálogo matizados necessários para enfrentar nossos desafios sociais e ambientais.
Um novo contrato social para a ciência
Quando o século XXI começou, alguns argumentaram que os cientistas tinham um contrato social renovado no qual os cientistas concentram seus talentos nas questões mais urgentes do nosso tempo em troca de financiamento público. O objetivo é ajudar a sociedade a se mover em direção a uma biosfera mais sustentável – uma que seja ecologicamente correta, economicamente viável e socialmente justa.
A ascensão da IA apresenta aos cientistas uma oportunidade não apenas de cumprir suas responsabilidades, mas de revitalizar o contrato em si. No entanto, as comunidades científicas precisarão abordar algumas questões importantes sobre o uso da IA primeiro.
Por exemplo, usar IA na ciência é um tipo de “terceirização” que pode comprometer a integridade do trabalho financiado publicamente? Como isso deve ser tratado? E quanto à crescente pegada ambiental da IA? E como os pesquisadores podem permanecer alinhados com as expectativas da sociedade enquanto integram a IA ao pipeline de pesquisa?
A ideia de transformar a ciência com IA sem primeiro estabelecer esse contrato social corre o risco de colocar a carroça na frente dos bois. Deixar a IA moldar nossas prioridades de pesquisa sem a contribuição de diversas vozes e disciplinas pode levar a uma incompatibilidade com o que a sociedade realmente precisa e resultar em recursos mal alocados.
A ciência deve beneficiar a sociedade como um todo. Os cientistas precisam se envolver em conversas reais sobre o futuro da IA dentro de sua comunidade de prática e com as partes interessadas na pesquisa. Essas discussões devem abordar as dimensões desse contrato social renovado, refletindo objetivos e valores compartilhados.
É hora de explorar ativamente os vários futuros que a IA para a ciência possibilita ou bloqueia – e estabelecer os padrões e diretrizes necessários para aproveitar seu potencial de forma responsável.
Ehsan Nabavi, Professor Sênior em Tecnologia e Sociedade, Responsible Innovation Lab, Universidade Nacional Australiana
Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original.