
A inteligência artificial deixou de ser um conceito futurista para se tornar uma presença constante e quase invisível no nosso cotidiano. Ela está nos sistemas de recomendação das plataformas de streaming, nas análises de crédito bancário, nos assistentes virtuais, nos sistemas de reconhecimento facial e, mais recentemente, nas ferramentas generativas que criam textos, imagens e até decisões automatizadas com base em dados que muitas vezes nem sabemos que estamos fornecendo.
Como especialista em proteção de dados, tecnologia da informação e segurança da informação, observo com preocupação — e, ao mesmo tempo, com responsabilidade — a forma como a IA vem sendo implementada sem os devidos cuidados legais, éticos e técnicos. O que está em jogo não é apenas a inovação tecnológica, mas a privacidade, a liberdade e a dignidade das pessoas. A Lei Geral de Proteção de Dados (LGPD) precisa ser parte central desse debate.
Falta de Transparência e Consentimento Explícito
Uma das maiores falhas que identifico no uso da IA no Brasil é a ausência de clareza sobre como os dados pessoais estão sendo utilizados para treinar, alimentar e direcionar os algoritmos. A LGPD exige que o tratamento de dados pessoais ocorra com bases legais claras — como o consentimento, o legítimo interesse ou a execução de contrato — e que o titular seja informado de forma transparente.
Mas o que vemos na prática? Ferramentas de IA sendo integradas em aplicativos e serviços sem informar adequadamente o usuário. Muitas vezes, o consentimento é obtido de forma genérica, por caixas pré-marcadas ou termos extensos que ninguém lê. Isso não é suficiente. O princípio da transparência (Art. 6º, VI da LGPD) está sendo constantemente violado.
Decisões Automatizadas sem Controle Humano
A LGPD reconhece o direito do titular de solicitar a revisão de decisões automatizadas que afetem seus interesses, inclusive as que definem perfis pessoais, profissionais, de consumo ou de crédito (Art. 20). No entanto, a maioria das empresas ainda não está preparada para oferecer essa possibilidade de revisão — nem técnica, nem organizacionalmente.
Quando um sistema de IA nega um crédito, desclassifica um currículo ou recusa um atendimento com base em análise automatizada, há um risco concreto de discriminação algorítmica, seja por viés nos dados de treinamento, seja por falta de validação humana. Como podemos garantir o direito à revisão, se o próprio funcionamento do modelo é considerado uma “caixa-preta”?
Coleta Exagerada e Tratamento Massivo de Dados
A cultura do big data — quanto mais dados, melhor — está profundamente enraizada no desenvolvimento de IA. Porém, a LGPD estabelece que o tratamento de dados deve se dar de forma adequada, necessária e proporcional aos fins propostos (Art. 6º, III – necessidade). Modelos de IA muitas vezes extrapolam essa diretriz ao coletar e cruzar informações que não são relevantes para o propósito original.
Além disso, temos o risco da reidentificação: mesmo dados anonimizados podem, em certos contextos, ser recompostos com cruzamentos suficientes. A IA, ao lidar com grandes volumes de informação, aumenta exponencialmente esse risco, tornando frágil a ilusão de que a anonimização é uma solução definitiva.
Uso de Dados Sensíveis sem Critérios Claros
Dados sobre origem racial, convicções religiosas, opiniões políticas, dados de saúde, genéticos ou biométricos são considerados dados sensíveis pela LGPD (Art. 5º, II). O tratamento desses dados requer cuidados redobrados e hipóteses legais específicas. No entanto, vejo com frequência ferramentas de IA que extraem esse tipo de dado a partir de imagens, áudios ou textos, muitas vezes sem qualquer critério legal, ético ou técnico.
O uso de reconhecimento facial em espaços públicos, por exemplo, é um exemplo crítico. Estamos entregando nossos traços biométricos a sistemas que não nos explicam onde, por quem, por quanto tempo e para que fins serão usados. Isso é, no mínimo, alarmante.
Falta de Governança de IA nas Empresas
Outro ponto que merece destaque é a total ausência de uma governança de IA nas empresas que adotam essas tecnologias. Não basta “implementar IA”. É necessário criar políticas internas, mapear os riscos, revisar contratos com fornecedores, realizar avaliações de impacto à proteção de dados (DPIA), capacitar times técnicos e jurídicos e manter documentação clara sobre os critérios de tratamento.
Infelizmente, na ânsia de “ser disruptivo”, muitos negócios pulam essa etapa. E isso pode custar caro — tanto em sanções da ANPD quanto em perda de confiança do público.
Treinamento com Dados Públicos: um Limbo Legal e Ético
Outro aspecto polêmico é o uso de dados “públicos” para treinamento de IA. Só porque uma informação está disponível na internet, não significa que ela está livre para ser coletada e utilizada indiscriminadamente. A LGPD continua a proteger dados pessoais, mesmo quando acessíveis publicamente, se houver tratamento automatizado que afete os titulares (Art. 7º, §4º).
A captura de conteúdos em redes sociais, fóruns, currículos e outras fontes abertas para treinamento de IA precisa ser analisada com muito cuidado. É fundamental avaliar o risco para os direitos fundamentais dos titulares, especialmente quando falamos de crianças, adolescentes ou grupos vulneráveis.
Conclusão: Precisamos de IA com Responsabilidade
Não sou contra a IA. Pelo contrário, acredito que ela tem o potencial de transformar positivamente nossas vidas — desde que desenvolvida e aplicada com responsabilidade. Como empresário da área de TI, sei do valor da inovação. Mas como especialista em segurança da informação e defensor da privacidade, vejo com clareza que estamos avançando mais rápido do que nossa capacidade de entender e mitigar os riscos.
A LGPD não é um entrave à inovação. É um guia ético e jurídico para que a tecnologia respeite o ser humano. Precisamos urgentemente incluir os temas de privacidade, segurança e proteção de dados no centro das estratégias de IA, antes que os danos sejam irreversíveis.
E você, como empresa ou profissional, já parou para avaliar
o impacto da IA nas suas operações à luz da LGPD?
A hora de agir é agora.
Autor:
Theonácio Lima Júnior – TavTec Tecnologia