Resumo
- Práticas de IA proibidas são atividades classificadas como de risco inaceitável pelo artigo 5º do AI Act europeu.
- O regulamento veda oito condutas que envolvem manipulação, vigilância, discriminação e violação de direitos.
- A base jurídica das proibições inclui a Carta dos Direitos Fundamentais da UE e os princípios da dignidade, privacidade e não discriminação.
- O descumprimento pode gerar multas de até 35 milhões de euros ou 7% do faturamento global.
- As organizações devem adotar medidas de compliance e garantir que seus sistemas não incorporem práticas vedadas pela norma.
Introdução
O AI Act estabelece regras claras para o desenvolvimento e uso de sistemas de inteligência artificial na União Europeia, adotando uma abordagem baseada na avaliação de riscos. Dentro dessa estrutura, as práticas de IA proibidas ocupam um lugar central: são atividades que envolvem riscos inaceitáveis e que, por isso, foram expressamente vedadas pelo legislador europeu.
Essas proibições estão reunidas no artigo 5º do regulamento e formam um núcleo duro de restrições absolutas. O dispositivo enumera oito práticas consideradas incompatíveis com os valores fundamentais da União Europeia.
Cada uma dessas vedações está vinculada à proteção de direitos como a dignidade humana, a privacidade, a não discriminação e a liberdade individual.
Mais do que um simples catálogo de condutas ilícitas, trata-se de um recorte ético-jurídico que busca orientar o desenvolvimento da inteligência artificial em bases legítimas.
Neste artigo, vamos explorar cada uma dessas oito práticas de IA proibidas, examinando os fundamentos jurídicos, os contextos em que se aplicam e os riscos que justificam sua vedação.
A proposta é interpretar o texto legal de forma clara e objetiva, articulando seus dispositivos com exemplos concretos e princípios jurídicos já consolidados, sempre lembrando que o AI Act tem servido como modelo de regulação de inteligência artificial para outros ordenamentos jurídicos, inclusive o brasileiro.
Vamos analisar em detalhes neste texto:
Comecemos analisando o que são práticas de IA proibidas.
1. O que são as práticas de IA proibidas pela União Europeia?
Como vimos em texto anterior, o AI Act classifica os sistemas de inteligência artificial com base no grau de risco que eles apresentam aos direitos fundamentais dos indivíduos e ao interesse público. Quatro categorias distintas são estabelecidas pelo regulamento:
- Sistemas de IA de risco inaceitável: são completamente proibidos, pois representam ameaça clara aos direitos fundamentais, como dignidade humana e privacidade.
- Sistemas de IA de risco elevado: são sujeitos a regras estritas de controle, fiscalização e conformidade.
- Sistemas de IA de risco limitado: são tecnologias que envolvem riscos moderados e que exigem apenas transparência mínima com usuários.
- Sistemas de IA de risco mínimo: não impõem riscos significativos aos direitos fundamentais e, portanto, não estão sujeitos a obrigações especiais.
O artigo 5º do AI Act reúne as práticas de IA proibidas, consideradas de risco inaceitável.
Ao contrário dos sistemas de alto risco, que podem operar sob certas condições, essas práticas são terminantemente vedadas em qualquer circunstância, salvo exceções expressas no próprio texto legal.
A proibição dessas atividades indica o compromisso do regulador europeu com a proteção de valores fundamentais, embora isso gere críticas de alguns especialistas, que consideram que a regulação proibitiva pode deixar a Europa para trás no mercado de desenvolvimento de IA.
Ainda assim, a ideia de que certos usos da inteligência artificial não são aceitáveis nem mesmo sob supervisão técnica revela um limite ético que o AI Act busca preservar.
A seguir, examinamos a lógica normativa que sustenta essas proibições e sua relação com os princípios fundantes do direito europeu.
1.1 Risco inaceitável e a estrutura do artigo 5º
No topo da hierarquia do sistema de classificação de riscos do AI Act está o risco inaceitável, que abrange práticas que violam frontalmente direitos fundamentais ou que têm alta probabilidade de causar prejuízos graves e irreparáveis.
O artigo 5º traduz essa categoria ao listar, de forma taxativa, oito práticas proibidas, descritas nas alíneas de “a” a “h” do item 1:
- Manipulação cognitiva ou comportamental de pessoas com o objetivo de causar danos
- Exploração de vulnerabilidades de pessoas específicas
- Pontuação social generalizada (Sistema de Crédito Social)
- Avaliação preditiva de risco criminal baseada em perfis ou traços de personalidade
- Criação de banco de dados de reconhecimento facial por coleta aleatória de imagens
- Inferência de emoções no local de trabalho e nas instituições de ensino
- Categorização biométrica por características sensíveis
- Identificação biométrica remota em tempo real em locais públicos para aplicação da lei
A tipificação dessas condutas como ilegais não depende de prova de dano efetivo, bastando a constatação de sua natureza intrinsecamente lesiva para a proibição ser aplicada.
1.2 Direitos fundamentais como parâmetro de proibição
O fundamento das proibições previstas no artigo 5º está na proteção dos direitos e liberdades reconhecidos pela Carta dos Direitos Fundamentais da União Europeia. Dignidade humana, autonomia individual, igualdade, privacidade e proteção de dados pessoais são valores que balizam a atuação legislativa no campo da tecnologia.
Essas práticas proibidas não são apenas tecnicamente arriscadas; elas são, sobretudo, politicamente inaceitáveis e juridicamente incompatíveis com a lógica de Estado de Direito adotada pela União Europeia.
Ao vedar essas condutas de forma categórica, o legislador europeu estabelece um balizamento normativo que orienta toda a aplicação do AI Act, servindo como referência para o desenvolvimento ético e legal da inteligência artificial na Europa.
2. As 8 práticas de IA proibidas pelo AI Act
2.1 Manipulação cognitiva ou comportamental de pessoas com o objetivo de causar danos
A primeira prática vedada pelo artigo 5º do AI Act está descrita na alínea “a” do item 1 e trata da proibição de sistemas de inteligência artificial utilizados para manipular o comportamento humano de forma subliminar, com o objetivo de causar danos físicos ou psicológicos.
Eis a íntegra do dispositivo:
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa, ou técnicas manifestamente manipuladoras ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou de um grupo de pessoas prejudicando de forma considerável a sua capacidade de tomar uma decisão informada e levando, assim, a que tomem uma decisão que, caso contrário, não tomariam, de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa, ou a um grupo de pessoas
A manipulação mencionada refere-se a técnicas que atuam abaixo do limiar da consciência do indivíduo, influenciando decisões ou ações sem que ele perceba estar sendo induzido.
Trata-se, portanto, de uma interferência ilegítima na autodeterminação da pessoa, que afeta sua liberdade de pensamento, de escolha e de ação.
O critério de proibição exige dois elementos cumulativos: o uso de técnicas subliminares e a intenção ou o risco previsível de causar danos.
Não se veda, portanto, qualquer influência comportamental, mas sim aquela que ocorra de forma oculta e que exponha o indivíduo a riscos relevantes.
Essa vedação busca proteger a integridade mental e física das pessoas diante de sistemas de IA que, por sua natureza opaca e capacidade de processamento de grandes volumes de dados, podem ser utilizados para influenciar decisões sem o devido conhecimento ou consentimento dos usuários.
É uma norma que visa resguardar a autonomia individual e os princípios da dignidade humana, pilares do direito europeu.
O problema é que, levado ao pé da letra, esse dispositivo deveria proibir até o funcionamento de redes sociais como TikTok ou Instagram.
No fundo, os algoritmos dessas redes faz uso justamente de inteligência artificial para influenciar as pessoas a passarem mais tempo engajadas e a comprarem os produtos oferecidos em suas publicidades micro direcionadas, o que ocorre de forma oculta e pode expor o indivíduo a riscos relevantes.
2.2 Exploração de vulnerabilidades de pessoas específicas
A segunda das práticas de IA proibidas pelo AI Act trata da vedação ao uso de sistemas de inteligência artificial que explorem vulnerabilidades de grupos específicos de pessoas, como crianças e idosos, pessoas com deficiência ou qualquer outro grupo em situação de fragilidade, com o objetivo de distorcer significativamente o comportamento dessas pessoas de maneira a causar danos:
A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore vulnerabilidades de uma pessoa singular ou de um grupo específico de pessoas devidas à sua idade, incapacidade ou situação socioeconómica específica, com o objetivo ou o efeito de distorcer substancialmente o comportamento dessa pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa ou a outra pessoa
O fundamento desta proibição é o princípio da proteção ao vulnerável, amplamente reconhecido no direito europeu e presente em diversos instrumentos de direitos humanos, inclusive em leis brasileiras como o Estatuto da Criança e do Adolescente e o Estatuto da Pessoa Idosa.
A norma reconhece que certos grupos sociais exigem salvaguardas adicionais diante da assimetria informacional e da capacidade de influência dos sistemas de IA.
A exploração de vulnerabilidades pode ocorrer, por exemplo, por meio da coleta e uso de dados pessoais sensíveis para induzir comportamentos de consumo, alterar decisões ou afetar o bem-estar emocional de indivíduos em situação de fragilidade.
Quando essa prática tem como consequência previsível um dano físico ou psicológico, ela se torna expressamente ilícita.
A intenção do legislador europeu é impedir que sistemas de IA sejam usados como instrumentos de abuso estrutural, mascarados por soluções tecnológicas aparentemente neutras.
2.3 Pontuação social generalizada (Sistema de Crédito Social)
A terceira prática proibida diz respeito à utilização de sistemas de inteligência artificial para fins de pontuação social generalizada. Conhecido como “social score”, essa prática ganhou notoriedade ao ser utilizada na China. O texto do AI Act diz o seguinte:
A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para avaliação ou classificação de pessoas singulares ou grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduza a uma das seguintes situações ou a ambas:
i) tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,
ii) tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos de pessoas que seja injustificado ou desproporcionado face ao seu comportamento social ou à gravidade do mesmo
Trata-se da vedação ao uso de IA para avaliar ou classificar o comportamento social das pessoas com base em dados pessoais, de forma sistemática e contínua.
Esse tipo de pontuação social é caracterizado pela atribuição de notas, índices ou classificações às pessoas, a partir da análise de múltiplos comportamentos ou atributos, com o objetivo de recompensar ou punir determinados padrões de conduta.
Na ficção, o melhor exemplo é o famoso episódio Nosedive (Queda livre), da terceira temporada da série Black Mirror.
Na realidade, o modelo chinês de “crédito social”, ainda que não nomeado diretamente, é o principal exemplo de sistema que motivou essa proibição.
O AI Act proíbe essa prática quando ela ocorrer de forma generalizada e sistemática e quando resultar em tratamento injustificado, desproporcional ou discriminatório, prejudicando os direitos ou as oportunidades das pessoas em contextos distintos daqueles em que os dados foram originalmente coletados.
A norma visa preservar a liberdade individual e impedir a vigilância institucionalizada com base em critérios morais, políticos, econômicos ou comportamentais.
2.4 Avaliação preditiva de risco criminal baseada em perfis ou traços de personalidade
A quarta das práticas de IA proibidas é a cláusula anti-Minority Report, famoso filme baseado em um conto de Philip K. Dick que retrata uma polícia de Pré-Crime com capacidades preditivas.
No caso do AI Act, alínea “d” trata da utilização de sistemas de inteligência artificial para avaliar ou prever o risco de uma pessoa cometer uma infração penal, quando essa avaliação é feita exclusivamente com base na definição de perfis ou na análise de traços e características de personalidade.
A regra geral é de proibição, como se vê na íntegra da alínea “d”:
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares a fim de avaliar ou prever o risco de uma pessoa singular cometer uma infração penal, com base exclusivamente na definição de perfis de uma pessoa singular ou na avaliação dos seus traços e características de personalidade. Esta proibição não se aplica aos sistemas de IA utilizados para apoiar a avaliação humana do envolvimento de uma pessoa numa atividade criminosa, que já se baseia em factos objetivos e verificáveis diretamente ligados a uma atividade criminosa
Essa vedação visa impedir o uso de tecnologias preditivas que rotulem indivíduos como potenciais infratores com base em padrões estatísticos, comportamentais ou psicológicos desvinculados de fatos concretos.
A prática do chamado profiling, se permitida, poderia legitimar discriminações estruturais, reforçar estigmas e violar princípios fundamentais do devido processo legal.
A proibição, no entanto, não abrange sistemas que apoiem avaliações humanas baseadas em dados objetivos e verificáveis diretamente relacionados a uma atividade criminosa específica.
O que se veda é a automatização do julgamento de periculosidade com base apenas em inferências subjetivas sobre a personalidade do indivíduo.
Ao excluir esse tipo de aplicação, o AI Act reafirma a centralidade da presunção de inocência e da responsabilização individual baseada em provas.
A construção de perfis de risco sem respaldo fático não apenas compromete a justiça criminal, como ameaça a igualdade perante a lei.
Trata-se, portanto, de uma medida de contenção do uso de IA para decisões penais automatizadas de caráter especulativo e discriminatório.
2.5 Criação de banco de dados de reconhecimento facial por coleta aleatória de imagens
A quinta prática proibida pelo artigo 5º do AI Act, descrita na alínea “e”, trata da criação ou expansão de bancos de dados de reconhecimento facial por meio da coleta aleatória de imagens faciais obtidas a partir da internet ou de sistemas de televisão em circuito fechado.
Eis a íntegra:
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de televisão em circuito fechado (TVCF)
Em outras palavras, um sistema de IA não pode ser programado para varrer a internet aleatoriamente montando um banco de dados de reconhecimento facial com os rostos das pessoas em fotos e vídeos.
A vedação abrange tanto a comercialização quanto a utilização desses sistemas, sempre que sua base de dados for formada sem consentimento, de maneira indiscriminada e massiva.
Trata-se de uma proibição voltada à proteção da privacidade, da imagem e da autodeterminação informativa das pessoas cujos rostos são capturados sem base legal ou autorização.
A coleta aleatória de imagens públicas, ainda que tecnicamente possível, não legitima a formação de bancos de dados biométricos para fins de identificação automática.
A prática foi amplamente criticada no contexto de grandes modelos treinados com imagens extraídas de redes sociais, vídeos de segurança e sites públicos, muitas vezes sem conhecimento ou controle dos indivíduos afetados.
Ao proibir essa conduta, o AI Act busca coibir a normalização da vigilância generalizada, impedindo que dados biométricos altamente sensíveis sejam transformados em ativos comerciais ou instrumentos de controle automatizado.
2.6 Inferência de emoções no local de trabalho e nas instituições de ensino
Em 2018, a notícia de que algumas escolas chinesas usavam inteligência artificial para medir em tempo real a atenção e as emoções dos estudantes assustou muita gente.
De acordo com a AIAAIC, um sistema instalado nas salas de aula adquiria imagens dos alunos a cada 30 segundos para identificar sete tipos de emoções e seis tipos de comportamento.
Essas informações eram transformadas em uma “pontuação de atenção” exibida a professores em tempo real, gerando alertas caso houvesse desatenção.
Para evitar casos do tipo, a sexta das práticas de IA proibidas pelo AI Act refere-se à utilização de sistemas de inteligência artificial destinados a inferir emoções de indivíduos no ambiente de trabalho e em instituições de ensino. A regra geral é de proibição, com exceção apenas para finalidades médicas ou de segurança.
A alínea “f” proíbe:
A colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular no local de trabalho e nas instituições de ensino, exceto nos casos em que o sistema de IA se destine a ser instalado ou introduzido no mercado por razões médicas ou de segurança
A inferência emocional, neste contexto, consiste no uso de tecnologias que tentam identificar estados afetivos, como tristeza, estresse, motivação ou desatenção, por meio da análise de expressões faciais, voz, postura corporal ou outros sinais não verbais.
Vale lembrar que essas tecnologias têm precisão contestada e alto potencial de uso abusivo, sem comprovações científicas de que realmente funcionem a contento.
O AI Act proíbe tais aplicações por considerar que a detecção de emoções em ambientes de assimetria de poder, como o trabalho e a escola, pode levar a vigilância invasiva, constrangimento psicológico e discriminação, afetando a liberdade e a autonomia dos indivíduos.
A presença constante de sistemas que interpretam emoções tende a gerar autocensura e insegurança, prejudicando o bem-estar mental.
A exceção prevista aplica-se apenas a sistemas voltados para finalidades médicas ou de segurança, como, por exemplo, dispositivos que monitorem sinais de fadiga em motoristas ou pacientes com distúrbios neurológicos, desde que devidamente justificados.
Com essa proibição, o legislador europeu busca proteger a integridade emocional das pessoas em contextos sensíveis, reafirmando que a IA não deve ser usada para vigiar estados internos que pertencem à esfera mais íntima da subjetividade humana.
2.7 Categorização biométrica por características sensíveis
A sétima das práticas de IA proibidas pelo AI Act veda o uso de sistemas de categorização biométrica que classifiquem individualmente pessoas com base em características sensíveis.
A proibição recai sobre tentativas de deduzir ou inferir, a partir de dados biométricos, aspectos como raça, opiniões políticas, filiação sindical, crenças religiosas ou filosóficas, vida sexual ou orientação sexual
A íntegra da alínea “g” dispõe o seguinte:
A colocação no mercado, a colocação em serviço para este fim específico, ou a utilização de sistemas de categorização biométrica que classifiquem individualmente as pessoas singulares com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual; esta proibição não abrange rotulagens nem filtragens de conjuntos de dados biométricos legalmente adquiridos, tais como imagens, com base em dados biométricos ou na categorização de dados biométricos no domínio da aplicação da lei
Essas categorias são consideradas especialmente protegidas no direito europeu por envolverem dimensões fundamentais da personalidade e da vida privada.
A classificação de indivíduos com base nesses atributos, de forma automatizada e sem base legal clara, representa um risco elevado de discriminação, estigmatização e violação de direitos fundamentais.
A proibição visa evitar que sistemas de inteligência artificial sejam utilizados para rotular pessoas a partir de traços físicos ou padrões faciais presumivelmente associados a crenças ou comportamentos.
Isso inclui, por exemplo, tecnologias que alegam ser capazes de identificar a orientação sexual de alguém com base em expressões faciais ou que tentem inferir filiações ideológicas a partir de características biométricas, como se fosse uma versão 2.0 da antropologia criminal de Lombroso.
A norma, contudo, admite uma exceção restrita: não se aplica a rotulagens ou filtragens de conjuntos de dados biométricos legalmente adquiridos, especialmente quando utilizadas para fins de aplicação da lei, como na categorização de imagens em bancos de dados criminais.
Ainda assim, mesmo nesses casos, é necessário observar o princípio da legalidade e os limites impostos pela proteção de dados e pelos direitos fundamentais.
Ao proibir essa forma de categorização, o AI Act reafirma que a tecnologia não pode ser usada para reproduzir preconceitos históricos ou reforçar estruturas de exclusão, sobretudo quando se trata de dados sensíveis cuja manipulação exige o mais alto nível de cautela jurídica e ética.
2.8 Identificação biométrica remota em tempo real em locais públicos para aplicação da lei
A última das práticas de IA proibidas pelo artigo 5º do AI Act, conforme disposto na alínea “h”, refere-se à utilização de sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público para fins de aplicação da lei.
A norma estabelece uma proibição geral, admitindo exceções estritas e devidamente justificadas, como se lê na íntegra do dispositivo:
A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, a menos e na medida em que essa utilização seja estritamente necessária para um dos seguintes fins:
i) busca seletiva de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca por pessoas desaparecidas,
ii) prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e atual ou real e previsível de um ataque terrorista,
iii) a localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos da realização de uma investigação criminal, ou instauração de ação penal ou execução de uma sanção penal por alguma das infrações referidas no anexo II e puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos.
O reconhecimento biométrico à distância em tempo real, como o reconhecimento facial, permite identificar indivíduos de forma automática enquanto circulam por ambientes públicos, sem consentimento e muitas vezes sem conhecimento prévio.
Essa tecnologia representa, na visão do legislador europeu, um risco significativo para os direitos fundamentais, em especial a privacidade, a liberdade de circulação e a presunção de anonimato no espaço público.
Diante desses riscos, o AI Act proíbe o uso desses sistemas por autoridades policiais ou estatais, salvo se a utilização for estritamente necessária para alcançar uma das finalidades previstas na norma:
- Busca seletiva de vítimas específicas de crimes graves como rapto, tráfico de seres humanos, exploração sexual ou desaparecimento de pessoas;
- Prevenção de ameaças específicas, substanciais e iminentes à vida ou à integridade física de pessoas, incluindo ameaças reais e previsíveis de ataques terroristas;
- Identificação de suspeitos de crimes graves, desde que vinculados a infrações previstas no Anexo II do AI Act e puníveis com pena privativa de liberdade máxima não inferior a quatro anos, segundo o direito do Estado-Membro em questão.
Mesmo nas hipóteses autorizadas, o uso do reconhecimento biométrico em tempo real está condicionado a critérios rigorosos de legalidade, proporcionalidade, necessidade e supervisão judicial ou administrativa.
A intenção do legislador europeu é clara: impedir a vigilância massiva e indiscriminada da população, limitando a adoção dessas tecnologias a circunstâncias excepcionais, que envolvam riscos graves e objetivos à segurança pública.
Trata-se de um esforço normativo para equilibrar a inovação tecnológica com a preservação das liberdades civis em sociedades democráticas.
3. Fundamentos jurídicos para as práticas de IA proibidas
As oito práticas de IA proibidas pelo AI Act não foram escolhidas aleatoriamente. Elas têm como base jurídica princípios sólidos e previamente consolidados no direito europeu, especialmente na Carta dos Direitos Fundamentais da União Europeia, em tratados internacionais e na própria jurisprudência europeia sobre proteção de dados e direitos fundamentais.
A seguir, examinaremos os principais fundamentos que embasam juridicamente essas proibições.
3.1 Princípios constitucionais e Carta dos Direitos Fundamentais da União Europeia
O principal alicerce jurídico das proibições do artigo 5º é a Carta dos Direitos Fundamentais da União Europeia.
A Carta protege explicitamente valores essenciais, como a dignidade humana (artigo 1º), a privacidade e a proteção de dados pessoais (artigos 7º e 8º) e o direito à integridade física e psíquica (artigo 3º).
Esses direitos servem como parâmetros para identificar práticas tecnológicas que, por sua própria natureza, são incompatíveis com o sistema jurídico europeu.
3.2 O papel do princípio da precaução nas práticas de IA proibidas
Outro fundamento relevante é o princípio da precaução, amplamente aplicado no direito europeu em situações de risco potencialmente grave e irreversível.
Segundo esse princípio, medidas restritivas podem ser justificadas mesmo diante da incerteza científica, desde que exista um risco razoável de danos significativos a bens jurídicos protegidos.
Ao proibir práticas consideradas de risco inaceitável, o AI Act aplica o princípio da precaução para impedir que certos usos da inteligência artificial causem danos irreparáveis antes que se tornem amplamente difundidos.
3.3 Princípio da proporcionalidade e proibições específicas
Além da precaução, o princípio da proporcionalidade desempenha um papel fundamental nas proibições específicas do artigo 5º.
O legislador europeu entendeu que a mera regulação dessas oito práticas não seria suficiente para evitar danos graves. Portanto, optou por vedá-las completamente, considerando que qualquer tentativa de mitigar seus riscos seria inadequada ou insuficiente.
Nesse sentido, cada uma das oito práticas proibidas foi avaliada quanto ao seu potencial destrutivo em relação aos benefícios potenciais, resultando na decisão normativa de sua absoluta proibição.
Esses fundamentos jurídicos sustentam a coerência interna do AI Act e fornecem um quadro normativo que justifica a proibição absoluta das oito práticas listadas no artigo 5º.
4. Implicações práticas para empresas, governos e desenvolvedores
As práticas de IA proibidas pelo AI Act vão além do plano teórico ou normativo. Elas trazem consequências práticas e imediatas para empresas, órgãos governamentais e desenvolvedores de sistemas de inteligência artificial.
Essas implicações demandam ações claras de conformidade jurídica e técnica, sob risco de sanções severas.
A seguir, examinamos as principais consequências decorrentes dessas proibições para os diferentes setores envolvidos.
4.1 Consequências do descumprimento das práticas de IA proibidas
O descumprimento das práticas proibidas pode resultar em penalidades administrativas bastante rigorosas.
De acordo com o AI Act, as multas para violações relacionadas às práticas proibidas podem atingir até 35 milhões de euros ou até 7% do faturamento global anual da empresa responsável, prevalecendo o valor mais elevado, conforme disposto no item 3 do artigo 99:
O incumprimento da proibição das práticas de IA a que se refere o artigo 5.o fica sujeito a coimas num montante que pode ir até 35 000 000 EUR ou, se o infrator for uma empresa, até 7 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado.
Além das sanções financeiras, há riscos reputacionais significativos para empresas que violem essas proibições, especialmente considerando a crescente sensibilidade pública em relação à privacidade e ao uso ético da tecnologia.
4.2 Deveres de compliance e governança algorítmica relacionados às práticas de IA proibidas
Para evitar essas penalidades, as organizações precisarão adotar procedimentos robustos de compliance e governança algorítmica.
Isso significa revisar todos os sistemas de IA existentes e em desenvolvimento, assegurando que nenhum deles se enquadre nas práticas proibidas.
O compliance inclui avaliações prévias de impacto, treinamento técnico e jurídico das equipes, políticas internas rigorosas e monitoramento contínuo da conformidade.
Empresas e governos deverão incorporar desde o início do desenvolvimento uma perspectiva de direitos fundamentais para garantir a legitimidade jurídica e ética dos seus produtos e serviços.
Muitos críticos ao AI Act questionam que tais níveis de exigência podem atrasar o desenvolvimento do mercado de inteligência artificial na União Europeia, apelando para o conhecido argumento de que a regulação pode atrapalhar a inovação.
4.3 Interoperabilidade com outras legislações europeias
As proibições do AI Act também terão impacto sobre outras legislações, especialmente aquelas ligadas à proteção de dados pessoais e direitos digitais.
É essencial, por exemplo, considerar a interoperabilidade do AI Act com o Regulamento Geral de Proteção de Dados (GDPR), o Digital Markets Act (DMA) e o Digital Services Act (DSA).
Essa convergência normativa exige uma visão ampla, cuidadosa e integrada por parte das organizações, para que possam operar dentro das múltiplas exigências regulatórias em vigor.
5. Conclusão: as práticas de IA proibidas pelo AI Act
As oito práticas de IA proibidas pelo artigo 5º do AI Act representam o núcleo mais rígido da regulamentação europeia sobre inteligência artificial.
Elas não são apenas tecnicamente arriscadas, mas sobretudo incompatíveis com os valores fundantes do Estado de Direito e da proteção dos direitos fundamentais no espaço europeu.
A partir da classificação de risco adotada pelo regulamento, o legislador optou por proibir terminantemente oito tipos de práticas que envolvem manipulação, discriminação, vigilância indevida ou inferências não autorizadas sobre aspectos sensíveis da vida das pessoas.
Essas condutas, mesmo que tecnologicamente viáveis, são consideradas pelo regulamento como juridicamente inaceitáveis.
Os fundamentos jurídicos dessas proibições encontram respaldo direto na Carta dos Direitos Fundamentais da União Europeia e nos princípios da precaução, da proporcionalidade e da dignidade humana.
Além disso, geram implicações práticas expressivas, exigindo das empresas, governos e desenvolvedores medidas eficazes de conformidade e governança algorítmica.
O AI Act, ao estabelecer esses limites, oferece um modelo regulatório robusto para orientar o desenvolvimento ético da inteligência artificial e também fornece lições relevantes para outros países, como o Brasil, que avançam na construção de seus próprios marcos legais sobre o tema.






