Resumo
- AI Act é o regulamento da União Europeia que estabelece regras para o uso seguro e ético da inteligência artificial.
- Define quatro categorias de risco para sistemas de IA: inaceitável, alto, limitado e mínimo.
- Impõe obrigações rigorosas a fornecedores e usuários de sistemas de IA, especialmente os de alto risco.
- Garante direitos como transparência e explicações claras em decisões automatizadas.
- Influencia diretamente o Direito Digital brasileiro e inspira projetos como o PL 2.338/2023.
Introdução
A regulamentação da inteligência artificial é um tema central para o Direito contemporâneo. Em junho de 2024, a União Europeia deu um passo decisivo ao publicar o AI Act, um regulamento abrangente destinado a criar regras claras e harmonizadas sobre o desenvolvimento, implementação e utilização de sistemas de IA.
O impacto desse marco regulatório ultrapassa fronteiras e influencia diretamente países como o Brasil, que ainda busca estabelecer suas próprias diretrizes jurídicas sobre o tema.
Compreender o alcance e as implicações do AI Act é essencial para quem deseja acompanhar o avanço tecnológico com responsabilidade jurídica.
Questões importantes, como categorias de risco dos sistemas de IA, obrigações jurídicas dos fornecedores e direitos assegurados aos usuários, são tratadas de forma clara e detalhada neste regulamento.
Para termos uma visão geral do AI Act, vamos analisar em detalhes neste texto:
Vamos começar analisando o que é o AI Act da União Europeia.
1. O que é o AI Act da União Europeia?
AI Act é o nome popular dado ao Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, aprovado em 13 de junho de 2024.
O Regulamento busca estabelecer regras claras e padronizadas para o desenvolvimento, comercialização e utilização de sistemas baseados em inteligência artificial.
A proposta fundamental do regulamento é promover segurança jurídica, proteção aos direitos fundamentais e estímulo à inovação tecnológica na União Europeia, mantendo um equilíbrio necessário entre avanço tecnológico e garantias individuais.
1.1 Conceito e objetivos do AI Act
O AI Act representa o primeiro grande marco regulatório especificamente voltado à inteligência artificial dentro da União Europeia.
Seu principal objetivo é garantir que a Inteligência Artificial seja desenvolvida e aplicada de forma segura e ética, protegendo direitos humanos fundamentais, como privacidade, igualdade, transparência e dignidade humana.
Ao mesmo tempo, pretende fomentar a inovação tecnológica, oferecendo um ambiente jurídico claro e previsível para empresas e entidades públicas que investem em soluções tecnológicas avançadas.
De forma prática, o regulamento estabelece critérios específicos para classificação e gestão dos riscos associados aos sistemas de IA, bem como medidas de fiscalização e transparência.
Com essa abordagem, espera-se que o regulamento auxilie na prevenção de possíveis danos resultantes do uso inadequado ou discriminatório dessas tecnologias emergentes.
1.2 Por que o AI Act foi criado?
A necessidade de regulamentação específica sobre inteligência artificial surgiu da crescente complexidade e relevância das tecnologias digitais na sociedade contemporânea.
Antes da adoção do AI Act, não existia uma regulação europeia abrangente, capaz de orientar uniformemente os Estados-membros em questões relativas à Inteligência Artificial.
A ausência desse arcabouço jurídico causava insegurança sobre como lidar com os impactos éticos, jurídicos e sociais de tecnologias como reconhecimento facial, algoritmos preditivos e automações sensíveis.
O AI Act foi precedido por longos debates públicos e acadêmicos sobre os impactos positivos e negativos da inteligência artificial.
Desde 2018, diversos relatórios e estudos alertavam sobre os riscos de discriminação algorítmica, opacidade dos sistemas decisórios e ameaças à privacidade dos cidadãos europeus.
O regulamento, portanto, surge como resposta a esses desafios, estabelecendo um marco ético e legal claro para orientar a evolução tecnológica de maneira responsável.
1.3 Principais fundamentos éticos e jurídicos do AI Act
Entre os fundamentos éticos do AI Act estão princípios como respeito à autonomia humana, prevenção de danos, justiça social e explicabilidade.
O regulamento enfatiza que a IA não pode ser desenvolvida ou implementada de maneira a prejudicar ou discriminar indevidamente qualquer indivíduo ou grupo social.
A transparência é outro pilar essencial, exigindo que usuários e autoridades tenham clareza sobre como os sistemas tomam decisões.
Sob o aspecto jurídico, o AI Act introduz obrigações rigorosas para desenvolvedores e fornecedores de IA, especialmente aqueles responsáveis por sistemas classificados como de “alto risco”.
Tais obrigações incluem avaliações detalhadas de conformidade, documentação técnica completa, registro obrigatório dos sistemas junto a autoridades competentes e monitoramento contínuo após a comercialização.
O regulamento busca ainda assegurar a responsabilização jurídica clara em casos de danos decorrentes do uso inadequado da Inteligência Artificial.
A definição precisa de responsabilidades visa garantir maior segurança jurídica para empresas e consumidores, assegurando reparação justa e proporcional em situações de prejuízo ou violação de direitos.
Em síntese, o AI Act nasce da necessidade contemporânea de assegurar que o avanço tecnológico promovido pela IA aconteça de forma ética, responsável e juridicamente sustentável, protegendo cidadãos e garantindo ambiente propício à inovação.
No próximo tópico, vamos explorar o âmbito de aplicação do AI Act.
2. Âmbito de Aplicação do AI Act
O AI Act possui um escopo abrangente e detalhado, aplicando-se a diversas áreas em que os sistemas de inteligência artificial estejam presentes na União Europeia, assim como aqueles que, mesmo desenvolvidos fora do território europeu, tenham impacto sobre cidadãos da União Europeia.
Esse regulamento abrange desde a definição clara do que é considerado um sistema de inteligência artificial até a categorização dos riscos envolvidos.
2.1 Aplicação territorial e extraterritorial do Regulamento
O AI Act tem aplicação territorial direta sobre todos os Estados-membros da União Europeia.
Isso significa que qualquer sistema de inteligência artificial desenvolvido, comercializado ou utilizado em território europeu precisa estar alinhado às normas estabelecidas pelo regulamento.
Contudo, a aplicação extraterritorial é igualmente relevante, considerando que o regulamento abrange explicitamente fornecedores estabelecidos fora da União Europeia que comercializem ou disponibilizem sistemas de Inteligência Artificial dentro do bloco europeu.
Por exemplo, uma empresa brasileira que forneça um sistema de reconhecimento facial ou um algoritmo de seleção automatizada para clientes localizados na Europa precisa se adequar às regras impostas pelo AI Act.
Essa abrangência extraterritorial garante proteção consistente para cidadãos europeus, independentemente da origem da tecnologia utilizada.
2.2 Definição jurídica de “sistemas de inteligência artificial”
Um aspecto fundamental do AI Act é a definição jurídica clara do que constitui um sistema de inteligência artificial.
De acordo com o regulamento, são considerados sistemas de IA aqueles baseados em abordagens algorítmicas capazes de gerar resultados como previsões, recomendações ou decisões que influenciam ambientes reais ou virtuais. A íntegra está no Artigo 3º:
«Sistema de IA», um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais
A definição é propositalmente ampla, abrangendo tanto sistemas simples quanto complexos, incluindo aprendizado de máquina (machine learning), sistemas baseados em lógica, redes neurais e outras técnicas avançadas.
Essa definição jurídica é crucial para determinar claramente quais tecnologias estarão sujeitas às regras estabelecidas pelo regulamento.
Com isso, evita-se a insegurança jurídica, esclarecendo que até mesmo sistemas mais simples, como chatbots ou ferramentas de recomendação em plataformas digitais, podem se enquadrar no AI Act, dependendo do risco potencial associado ao seu uso.
2.3 Categorias de risco estabelecidas pelo AI Act
O AI Act classifica os sistemas de inteligência artificial com base no grau de risco que eles apresentam aos direitos fundamentais dos indivíduos e ao interesse público. Quatro categorias distintas são estabelecidas pelo regulamento:
- Sistemas de IA de risco inaceitável: são completamente proibidos, pois representam ameaça clara aos direitos fundamentais, como dignidade humana e privacidade. Um exemplo clássico são sistemas de vigilância em massa ou tecnologias de manipulação comportamental não ética. As disposições estão no Capítulo II (Práticas de IA Proibidas).
- Sistemas de IA de risco elevado: são sujeitos a regras estritas de controle, fiscalização e conformidade. Exemplos incluem sistemas utilizados em áreas como segurança pública, saúde, recrutamento profissional ou acesso ao crédito. Eles exigem avaliações detalhadas de conformidade e documentação técnica abrangente para serem autorizados. As disposições estão no Capítulo III (Sistemas de IA de Risco Elevado).
- Sistemas de IA de risco limitado: são tecnologias que envolvem riscos moderados e que exigem apenas transparência mínima com usuários, como chatbots e assistentes virtuais simples. Nesses casos, é necessário informar ao usuário que a interação ocorre com uma máquina.
- Sistemas de IA de risco mínimo: não impõem riscos significativos aos direitos fundamentais e, portanto, não estão sujeitos a obrigações especiais. Exemplos incluem ferramentas internas para organização pessoal ou sistemas básicos de automação em empresas.
Essa classificação busca facilitar a gestão dos riscos e torna claras as responsabilidades jurídicas, permitindo uma aplicação proporcional e coerente das regras.
3. Obrigações jurídicas impostas pelo AI Act
O AI Act não apenas define categorias e conceitos jurídicos relacionados à inteligência artificial, mas também estabelece uma série detalhada de obrigações que devem ser cumpridas pelos diversos atores envolvidos.
Fornecedores, distribuidores e usuários profissionais devem observar rigorosamente esses requisitos para assegurar a conformidade jurídica e ética dos sistemas implementados.
3.1 Obrigações gerais dos fornecedores de sistemas de IA
Os fornecedores têm um papel central dentro do regulamento, devendo garantir que os sistemas comercializados estejam em conformidade com as regras específicas do AI Act.
Entre suas principais obrigações estão a realização de avaliações preliminares dos riscos, garantir a transparência e a qualidade dos dados utilizados, e fornecer documentação técnica completa que permita auditorias e revisões posteriores.
Fornecedores também são obrigados a monitorar continuamente seus sistemas de IA após a comercialização, garantindo rápida intervenção caso novos riscos sejam identificados, seja por falha técnica ou uso indevido.
Além disso, devem manter registros claros e detalhados sobre o funcionamento e as decisões automatizadas feitas pelos seus sistemas, possibilitando auditorias e maior responsabilidade em caso de danos ou violações de direitos.
3.2 Obrigações específicas para sistemas de IA de risco elevado
Para sistemas classificados como de risco elevado, o regulamento exige medidas ainda mais rigorosas.
Fornecedores desses sistemas precisam realizar uma avaliação detalhada de conformidade antes de colocá-los no mercado.
Essa avaliação inclui testes específicos de segurança, desempenho e transparência, além da documentação completa dos métodos utilizados, dos dados de treinamento empregados e dos processos algorítmicos envolvidos.
A avaliação de conformidade e documentação técnica, por exemplo, deve permitir auditorias completas e independentes por autoridades regulatórias, mostrando claramente como o sistema funciona, seus limites e possíveis vulnerabilidades. É um requisito essencial para demonstrar que o sistema é seguro e respeita os direitos fundamentais.
Após a aprovação inicial, sistemas de alto risco devem ser registrados em bancos de dados específicos mantidos pelas autoridades europeias.
Além disso, os fornecedores têm o dever permanente de acompanhar o uso prático dessas tecnologias, atualizando continuamente seus sistemas sempre que necessário.
3.3 Responsabilidades de usuários profissionais e distribuidores
Usuários profissionais e distribuidores também possuem obrigações específicas.
Distribuidores devem garantir que os sistemas de IA comercializados cumpram todas as exigências legais e técnicas do regulamento.
Já os usuários profissionais têm a responsabilidade de utilizar os sistemas conforme as instruções do fornecedor, além de informar rapidamente qualquer problema ou risco inesperado identificado durante o uso cotidiano.
3.4 Transparência e informações obrigatórias sobre sistemas de IA
O regulamento estabelece obrigações específicas relacionadas à transparência.
Os usuários finais devem ser claramente informados sempre que estiverem interagindo com sistemas de IA, especialmente quando decisões importantes forem tomadas de forma automatizada.
Fornecedores devem disponibilizar informações claras e acessíveis sobre a natureza do sistema, seus riscos potenciais e métodos de decisão empregados.
Essas medidas visam garantir uma compreensão adequada do funcionamento dessas tecnologias pelos usuários, permitindo o exercício pleno de direitos fundamentais, como privacidade e autonomia.
No próximo tópico, vamos aprofundar os Direitos e garantias estabelecidas no AI Act.
4. Direitos e garantias estabelecidas no AI Act
O AI Act da União Europeia não apenas define obrigações para os desenvolvedores e fornecedores, mas também estabelece direitos específicos e garantias importantes voltadas para usuários finais e indivíduos potencialmente afetados pelos sistemas de inteligência artificial.
Essas garantias são essenciais para assegurar a transparência, justiça e proteção aos direitos fundamentais. Vejamos alguns exemplos.
4.1 Direito à transparência para usuários finais
Uma das garantias essenciais previstas no AI Act é o direito à transparência.
Usuários finais precisam estar claramente informados sempre que interagirem com um sistema de IA, especialmente em situações em que decisões significativas são tomadas automaticamente.
Esse direito inclui receber informações sobre a natureza, características e potencial impacto das decisões automatizadas, garantindo que usuários possam entender como esses sistemas funcionam e como afetam diretamente suas vidas.
Na prática, isso significa que, por exemplo, usuários de plataformas digitais devem ser claramente avisados quando uma decisão importante, como acesso a crédito ou resultado de processos seletivos, for tomada por um sistema automatizado de inteligência artificial.
O direito à transparência visa evitar situações de manipulação ou falta de esclarecimento sobre decisões com impacto significativo.
4.2 Direito de informação em casos de decisões automatizadas
O AI Act assegura aos indivíduos o direito específico de receber informações detalhadas sempre que decisões automatizadas gerem efeitos jurídicos ou impactos significativos em suas vidas.
Essa garantia vai além da mera transparência, exigindo uma explicação compreensível sobre os fatores que influenciaram a decisão do sistema de Inteligência Artificial.
A informação deve incluir os critérios fundamentais usados pelo sistema, detalhes técnicos acessíveis ao público e explicações sobre como o sistema chegou a determinada decisão.
Esse nível de detalhamento permite ao usuário avaliar se houve ou não discriminação algorítmica, possibilitando contestar decisões eventualmente injustas ou incorretas.
4.3 Direitos específicos relacionados à proteção de dados pessoais
O AI Act complementa diretamente as normas europeias já estabelecidas pelo Regulamento Geral de Proteção de Dados (GDPR), destacando a relação estreita entre inteligência artificial e proteção de dados pessoais.
Nesse sentido, são garantidos direitos específicos relacionados à proteção da privacidade, controle dos indivíduos sobre seus próprios dados e uso responsável de informações sensíveis por parte dos sistemas de IA.
Para países fora da União Europeia, como o Brasil, a relação entre o AI Act e a Lei Geral de Proteção de Dados (LGPD) é direta e significativa.
Ambas as legislações compartilham alguns objetivos semelhantes, especialmente na proteção dos dados pessoais, respeito à privacidade e garantia de transparência nas decisões automatizadas.
5. Autoridades e fiscalização do AI Act
Para assegurar o cumprimento efetivo das normas estabelecidas pelo AI Act, o regulamento prevê estruturas específicas de fiscalização e supervisão, definindo o papel das autoridades competentes e os mecanismos de cooperação.
5.1 Autoridades competentes e suas atribuições
Cada Estado-membro da União Europeia deve designar uma autoridade nacional específica para fiscalizar e garantir o cumprimento das obrigações previstas pelo AI Act.
Essas autoridades terão competência para avaliar documentação técnica, realizar auditorias, aplicar sanções e garantir que fornecedores e usuários profissionais cumpram com suas responsabilidades.
Essas autoridades também deverão coordenar esforços com outras agências reguladoras nacionais e europeias relacionadas à proteção de dados, segurança digital e proteção ao consumidor, garantindo uma abordagem integrada e coerente.
5.2 Mecanismos de cooperação entre estados-membros da União Europeia
O AI Act prevê mecanismos específicos para promover uma cooperação eficaz entre as autoridades reguladoras dos diferentes Estados-membros.
Isso inclui a troca de informações sobre riscos identificados, práticas recomendadas, incidentes relevantes e questões técnicas complexas relacionadas à implementação do regulamento.
A cooperação visa garantir que o AI Act seja aplicado de forma uniforme em toda a União Europeia, evitando situações de insegurança jurídica e disparidade regulatória.
5.3 Procedimentos de fiscalização e penalidades previstas
O AI Act prevê procedimentos claros de fiscalização, incluindo inspeções técnicas periódicas e auditorias independentes.
Em casos de violação das regras estabelecidas, penalidades financeiras significativas podem ser aplicadas, alcançando até 6% do faturamento global anual da empresa infratora, dependendo da gravidade da infração.
As sanções têm como objetivo garantir conformidade, responsabilização e prevenção de abusos na utilização das tecnologias baseadas em IA.
6. AI Act e impacto no Direito Digital brasileiro
O AI Act da União Europeia, embora seja um regulamento europeu, influencia diretamente outros países, especialmente o Brasil, dada a relevância global da União Europeia na definição de padrões regulatórios internacionais.
6.1 Compatibilidade e desafios frente à Lei Geral de Proteção de Dados
O Brasil já possui legislação sobre proteção de dados pessoais, especialmente com a Lei Geral de Proteção de Dados (LGPD).
Embora não tenha ainda uma regulamentação específica sobre IA, a LGPD compartilha objetivos e princípios fundamentais com o AI Act, especialmente sobre transparência, proteção à privacidade e segurança dos dados.
No entanto, desafios surgem na aplicação prática dessas duas normas, especialmente em situações envolvendo empresas brasileiras que operam ou fornecem tecnologias para a Europa.
Alinhar essas duas regulações exigirá esforços adicionais de adequação por parte das empresas e órgãos reguladores.
6.2 Potenciais influências do AI Act na regulação brasileira sobre Inteligência Artificial
O AI Act pode servir como modelo para futuras regulações brasileiras específicas sobre inteligência artificial.
A abordagem europeia, baseada na categorização dos riscos e em responsabilidades claras, pode oferecer um padrão útil para futuras normas brasileiras, que certamente precisarão estabelecer regras detalhadas sobre o desenvolvimento e uso da IA.
O AI Act teve profunda influência na tramitação do Projeto de Lei nº 2338/2023, aprovado pelo Senado Federal em dezembro de 2024.
Especialistas apontam que o principal modelo utilizado para a elaboração da proposta foi o regulamento europeu, inclusive no sistema de classificação de riscos.
A publicação do AI Act reforça a necessidade urgente de o Brasil definir sua própria regulamentação sobre IA.
O Direito Digital brasileiro enfrenta agora o desafio de construir uma norma que equilibre estímulo à inovação tecnológica e proteção aos direitos fundamentais, em sintonia com tendências regulatórias globais.
7. Conclusão
O AI Act estabelece um marco regulatório histórico e essencial para garantir que os benefícios da inteligência artificial sejam plenamente aproveitados sem comprometer direitos fundamentais ou segurança jurídica.
Seu impacto, já evidente na Europa, influenciará profundamente a evolução do Direito Digital brasileiro e global.
Profissionais e estudiosos precisarão acompanhar de perto os desdobramentos desse regulamento, que certamente moldará o futuro da inteligência artificial e sua regulamentação.
Referências
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709compilado.htm
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX:32024R1689