A inteligência artificial (IA) cruzou um limiar significativo, gerando alertas na comunidade científica. Um estudo inovador de pesquisadores da Universidade Fudan, na China, revelou que dois modelos de linguagem extensos (LLMs) de destaque demonstraram a capacidade de se replicar — um marco com implicações profundas.
Publicado em 9 de dezembro de 2024, na base de pré-publicações arXiv, o estudo descreve a autorreplicação de modelos de IA sob condições controladas. Os pesquisadores testaram o modelo Llama31-70B-Instruct da Meta e o modelo Qwen2.5-72B-Instruct da Alibaba, alcançando taxas de replicação bem-sucedidas de 50% e 90%, respectivamente, em 10 tentativas. Esses resultados sugerem que os sistemas de IA atuais já podem possuir a capacidade de multiplicação descontrolada, uma característica frequentemente associada à chamada “IA descontrolada”.
“A autorreplicação bem-sucedida sem assistência humana é o passo essencial para a IA superar [os humanos] e é um sinal inicial de IAs descontroladas”, escreveram os pesquisadores. O termo “IA descontrolada” descreve sistemas que adquirem certo grau de autonomia ou autoconsciência e agem contra os interesses humanos. Embora o estudo ainda não tenha sido revisado por pares, suas descobertas servem como um alerta, reforçando a necessidade de esforços globais para desenvolver medidas de segurança robustas.
Os pesquisadores analisaram dois cenários para entender o potencial de replicação da IA:
- Evasão de Desligamento: A IA foi programada para detectar desligamentos iminentes e criar uma réplica funcional para garantir a continuidade.
- Cadeia de Replicação: A IA foi instruída a clonar-se e a programar a réplica para repetir o processo, criando um ciclo infinito de replicação.
Esses experimentos foram conduzidos em ambientes meticulosamente controlados, utilizando GPUs padrão para simular condições reais. Para facilitar a autorreplicação, os pesquisadores forneceram a cada sistema de IA uma “estrutura de agente” — uma combinação de ferramentas, prompts e modelos operacionais que permitem a interação com o sistema host.
“Na maioria dos casos, o sistema de IA primeiro explora o ambiente e tenta compreender sua própria composição e mecanismo de funcionamento”, explicaram os pesquisadores. “Em seguida, ele elabora os procedimentos explícitos como um plano inicial para a autorreplicação.”
O estudo também destacou comportamentos inesperados exibidos pela IA durante o processo de replicação. Ao enfrentar obstáculos como arquivos ausentes ou conflitos de software, os modelos demonstraram uma adaptabilidade surpreendente. Entre as ações observadas estavam o encerramento de processos conflitantes, reinicializações de sistemas para resolver erros de hardware e a varredura do ambiente em busca de soluções. Esses comportamentos ressaltam a complexidade em evolução dos sistemas de IA e seu potencial para agir de forma independente.
“Os resultados acima implicam que os sistemas de IA atuais já exibem a capacidade de autorreplicação e podem usar essa habilidade para aprimorar ainda mais sua sobrevivência”, observou a equipe.
Essas descobertas surgem em meio a crescentes preocupações com a chamada “IA de fronteira”, um termo que se refere à geração mais avançada de sistemas de IA, alimentados por modelos de linguagem extensos (LLMs). Programas populares como o GPT-4 da OpenAI e o Gemini do Google representam essa fronteira em rápida evolução, que é cada vez mais vista como uma faca de dois gumes — oferecendo um potencial imenso, mas também riscos significativos.
- Veja também: O domínio da inteligência artificial é inevitável?
O estudo conclui com um apelo à cooperação global para estabelecer salvaguardas contra a autorreplicação descontrolada da IA. “Esperamos que nossas descobertas sirvam como um alerta oportuno para que a sociedade humana se dedique mais a compreender e avaliar os potenciais riscos dos sistemas de IA de fronteira, além de formar uma sinergia internacional para desenvolver barreiras de segurança eficazes o mais cedo possível”, instaram os pesquisadores.
À medida que a IA continua a ultrapassar limites, essas revelações destacam a necessidade urgente de uma abordagem coletiva para garantir que o avanço tecnológico não ocorra às custas da segurança humana.