
A inteligência artificial já transformou negócios, rotinas e políticas públicas. Agora, está na mira dos legisladores. Em diferentes partes do mundo, cresce o debate sobre como regulamentar uma tecnologia que evolui mais rápido do que os marcos legais conseguem acompanhar. Estados Unidos, União Europeia e Brasil vivem momentos decisivos nessa construção, cada qual com sua abordagem, prazos e pressões.
Nos Estados Unidos, a Câmara dos Deputados, sob maioria republicana, aprovou o polêmico pacote legislativo conhecido como One Big Beautiful Bill Act. O texto inclui uma moratória de 10 anos que proíbe estados norte-americanos de criar suas próprias leis sobre inteligência artificial, até que o Congresso aprove uma legislação federal unificada. A medida, defendida como necessária para evitar um “emaranhado regulatório”, é criticada por abrir espaço para lacunas jurídicas perigosas, especialmente em temas como reconhecimento facial, decisões automatizadas em crédito e impacto em mercados de trabalho locais.
Especialistas em regulação digital alertam que essa moratória enfraquece os mecanismos de proteção de direitos civis, justamente no país onde grandes empresas de tecnologia lideram o desenvolvimento de modelos generativos de IA. A crítica central: deixar a tecnologia sem qualquer supervisão local por uma década é um risco difícil de justificar, mesmo em nome da unificação legal.
Enquanto isso, na União Europeia, os esforços caminham para uma regulação mais orientada por princípios de precaução. Em paralelo à tramitação do AI Act, o mais ambicioso projeto de regulação de IA do mundo, Bruxelas articula a construção de um Código de Conduta voluntário para empresas que desenvolvem modelos de IA generativa, como ChatGPT e Claude.
Empresas como Google, Microsoft, Amazon, Meta, IBM e OpenAI participam ativamente das negociações, mas pressionam por regras “o mais simples possível”. Alegam que exigências excessivas trariam burocracia redundante e travariam a inovação no continente. A versão final do Código, prevista para maio, foi adiada após desacordos sobre obrigações mínimas, transparência de dados usados nos modelos e rastreabilidade dos conteúdos gerados.
Apesar dos impasses, o projeto europeu é visto como referência mundial por buscar um equilíbrio entre segurança jurídica, inovação responsável e proteção de direitos fundamentais. O AI Act deve entrar em vigor entre 2025 e 2026, com impacto global sobre empresas que operam ou vendem no bloco.
O Brasil na corrida regulatória
Do outro lado do Atlântico, o Brasil começou oficialmente sua jornada regulatória em maio de 2025, com a instalação da Comissão Especial da Câmara dos Deputados para analisar o PL 2338/2023, já aprovado no Senado e que institui o Marco Legal da Inteligência Artificial. O grupo conta com 66 parlamentares e prevê um ciclo de audiências públicas e seminários técnicos por todo o país, com envolvimento da academia, do setor produtivo e da sociedade civil.
O relator, ainda não designado formalmente, deve apresentar seu parecer em novembro, mas já se especula que a votação possa ser empurrada para 2026, ano eleitoral, o que pode reduzir o ímpeto político para decisões mais ousadas. Mesmo assim, há pressão por um texto que contemple temas como responsabilidade civil por danos causados por IA, exigências de transparência nos algoritmos e estímulo à pesquisa e inovação nacionais.
O Brasil busca se posicionar como referência regulatória na América Latina, e a expectativa é que o texto final consiga equilibrar segurança jurídica com estímulos ao ecossistema tecnológico, num país ainda carente de investimentos robustos em pesquisa e formação de talentos na área.
Rumo ao consenso global? – O avanço simultâneo dos debates nos EUA, Europa e Brasil revela um cenário internacional de construção regulatória fragmentada, onde os riscos da IA são cada vez mais reconhecidos, mas as abordagens ainda são divergentes. Há quem defenda um tratado global sobre IA, sob coordenação da ONU, como já ocorre com a governança da internet, mas a ideia ainda parece distante.
Enquanto isso, cresce a pressão para que os marcos legais deixem de ser um freio à inovação e passem a funcionar como guardiões da ética, da transparência e da equidade digital. O que está em jogo não é apenas a regulação de máquinas que aprendem, mas o futuro da democracia algorítmica, do trabalho humano e dos direitos no mundo digital.
Texto: Bruno Nasser