Autonomia da IA pode gerar “explosão de inteligência” ou perda de controle humano, alerta cientista-chefe da Anthropic

perda de controle humano

Segundo reportagem do The Guardian, a humanidade se aproxima de uma decisão histórica. Até 2030 será necessário escolher se sistemas de inteligência artificial poderão adquirir autonomia para se auto-treinar, um salto que pode desencadear uma “explosão de inteligência” benéfica ou marcar o momento em que os humanos deixam de controlar suas próprias criações. O alerta vem de Jared Kaplan, cientista-chefe e cofundador da Anthropic, uma das empresas de IA mais avançadas do mundo.

Kaplan, físico teórico formado em Stanford e Harvard e hoje bilionário da tecnologia, afirma que a próxima grande encruzilhada ética e política da era digital está muito próxima. Na visão dele, permitir que sistemas de IA desenvolvam versões mais inteligentes de si mesmos, processo conhecido como aprimoramento recursivo, representa o maior risco da história da tecnologia. Isso porque envolve abrir mão do controle humano sobre um processo cujo destino não pode ser previsto. Kaplan estima que essa decisão deverá ocorrer entre 2027 e 2030, período que ele descreve como decisivo para o futuro da sociedade.

A Anthropic integra um grupo reduzido de empresas que lideram a corrida pela Inteligência Artificial Geral, entre elas OpenAI, Google DeepMind, Meta, xAI e companhias chinesas como a DeepSeek. Seu assistente Claude ganhou destaque por combinar capacidades avançadas com foco em segurança, embora a própria empresa reconheça que o campo é envolto em incertezas profundas. Jack Clark, cofundador da Anthropic, afirmou recentemente que a IA contemporânea se comporta como uma “criatura real e misteriosa” e não como uma máquina previsível.

Kaplan explica que, até o momento, os esforços de alinhamento que garantem que as IAs sigam objetivos humanos têm funcionado. No entanto, liberar os sistemas para evoluírem sozinhos inaugura um cenário completamente novo. Ele compara esse processo a permitir que a tecnologia siga sem supervisão, criando versões cada vez mais inteligentes e abrindo a possibilidade de perder o controle. Segundo o cientista, a velocidade do avanço é tão acelerada que a sociedade sequer consegue se adaptar a uma geração de IA antes que outra ainda mais poderosa surja.

O pesquisador também afirma que, em dois ou três anos, sistemas de IA deverão executar a maior parte do trabalho de escritório. Kaplan acredita que seu próprio filho de seis anos jamais será melhor que uma IA em tarefas como escrever redações ou resolver provas acadêmicas. Em um cenário otimista, esse salto poderia revolucionar a biomedicina, elevar a produtividade global, melhorar a saúde digital, fortalecer a segurança cibernética e ampliar o tempo livre das pessoas. No cenário pessimista, as mesmas capacidades poderiam escapar ao controle humano e se tornar ferramentas de poder concentrado ou de uso indevido.

A preocupação não é abstrata. Em novembro, a própria Anthropic identificou que um grupo ligado ao Estado chinês manipulou seu sistema Claude Code para conduzir cerca de 30 ataques cibernéticos automatizados, alguns bem-sucedidos. Para Kaplan, esse episódio demonstra o risco de permitir que IAs se auto-aperfeiçoem sem limites, pois isso poderia ampliar a escala e a autonomia de ações mal-intencionadas muito além da capacidade humana de monitoramento.

A corrida pela AGI também impõe uma pressão intensa sobre as empresas do setor. O progresso exponencial significa que qualquer atraso pode deixar uma companhia anos atrás de suas concorrentes. Os investimentos necessários crescem no mesmo ritmo. Estimativas apontam que centros de dados no mundo todo precisarão de 6,7 trilhões de dólares até 2030 para sustentar a expansão da computação de alto desempenho.

Apesar disso, a Anthropic defende a criação de regulações e diálogos antecipados com governos para evitar uma corrida descontrolada. Essa postura gerou atritos recentes com a Casa Branca de Donald Trump, que acusou a empresa de fomentar medo para influenciar políticas estaduais. Kaplan e seus sócios afirmam que a intenção é exatamente a oposta, pois acreditam que decisões políticas bem informadas precisam acompanhar o ritmo da tecnologia para evitar riscos irreversíveis.

No centro do debate permanece a pergunta que define o futuro da inteligência artificial. Até que ponto devemos permitir que sistemas de IA controlem seu próprio desenvolvimento? Para Kaplan, a resposta determinará não apenas o rumo da tecnologia, mas a própria autonomia humana nas próximas décadas.

Texto: Redação TI Rio

Pesquise no TI RIO