7 obrigações de Transparência em sistemas de IA, segundo o AI Act da União Europeia

Transparência em sistemas de IA

Resumo

  • Transparência em sistemas de IA é um dever jurídico central no AI Act, com foco na informação clara ao usuário.
  • O artigo 50º exige identificação de interações com IA e conteúdos gerados artificialmente.
  • Deep fakes e sistemas biométricos devem ser comunicados de forma transparente.
  • Existem exceções, especialmente para investigação criminal e conteúdos artísticos.
  • O regulamento impõe padrões de clareza, acessibilidade e responsabilidade aos agentes envolvidos.

Introdução

A transparência em sistemas de IA (inteligência artificial) tornou-se um dos pilares centrais da regulação contemporânea, especialmente diante da crescente presença de sistemas automatizados em decisões que afetam diretamente indivíduos e a coletividade. 

No contexto do Regulamento (UE) 2024/1689, conhecido como AI Act, a transparência em sistemas de IA assume papel estratégico ao impor deveres claros de informação, identificação e comunicação aos usuários.

Isso porque os algoritmos que definem o que os usuários veem quase nunca são transparentes. Nem os seus criadores conseguem explicar como eles funcionam. 

Essa “opacidade algorítmica”, muitas vezes associada a sistemas de inteligência artificial, levanta preocupações relevantes sobre manipulação, desinformação e assimetria informacional. 

Nesse cenário, o artigo 50º do AI Act estabelece um conjunto de obrigações específicas voltadas a garantir que os usuários saibam quando estão interagindo com sistemas de IA ou consumindo conteúdos gerados artificialmente.

Mais do que um requisito formal, a transparência se apresenta como instrumento de proteção de direitos fundamentais, como a autonomia da vontade e o direito à informação. 

Ao mesmo tempo, impõe desafios técnicos e jurídicos para provedores e responsáveis pela implementação dessas tecnologias, exigindo uma abordagem integrada entre desenvolvimento tecnológico e conformidade regulatória.

Ao longo deste texto, serão examinados os fundamentos jurídicos da transparência, as obrigações previstas no AI Act, suas exceções e os impactos práticos para o Direito Digital.

Vamos analisar em detalhes neste texto as 7 obrigações de transparência em sistemas de IA, quais sejam:

Comecemos pela primeira obrigação listada no artigo 50º do AI Act.

1. Deixar claro que a pessoa está interagindo com inteligência artificial

A primeira das obrigações de transparência em sistemas de IA é simplesmente deixar claro para o usuário que ele está interagindo com uma inteligência artificial.

Pode parecer óbvio hoje, porém muitos sistemas buscavam se passar por humanos em interações como chats, comentários e até mesmo produtores de conteúdo.

Por isso, o AI Act dispõe que “os prestadores devem assegurar que os sistemas de IA destinados a interagir diretamente com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares em causa sejam informadas de que estão a interagir com um sistema de IA”.

Há exceções, no entanto. 

A primeira é se a inteligência artificial for óbvia do ponto de vista de uma pessoa singular razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização. 

A segunda é a não aplicação a sistemas de IA “legalmente autorizados para detectar, prevenir, investigar ou reprimir infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal”.

Essa segunda exceção, aliás, repete-se em diversas das sete obrigações de transparência em sistemas de IA, como veremos a seguir.

2. Informar que conteúdo sintético foi produzido por inteligência artificial

A segunda obrigação de transparência em sistemas de IA diz respeito à aplicação de uma marca que avise que conteúdos sintéticos de áudio, imagem, vídeo ou texto foram produzidos por inteligência artificial.

Os sistemas devem assegurar que os resultados produzidos sejam marcados num formato legível por máquina e detectáveis como tendo sido artificialmente gerados ou manipulados. 

O artigo dispõe que “os prestadores devem assegurar que as suas soluções técnicas são eficazes, interoperáveis, sólidas e fiáveis, na medida em que tal seja tecnicamente viável, tendo em conta as especificidades e limitações dos vários tipos de conteúdos, os custos de aplicação e o estado da arte geralmente reconhecido, tal como estiver refletido em normas técnicas pertinentes”. 

Aqui também há exceções.

A obrigação não se aplica na medida em que os sistemas de IA desempenhem uma função de apoio à edição normalizada ou não alterem substancialmente os dados de entrada disponibilizados pelo responsável pela implantação ou a semântica dos mesmos, ou quando a sua utilização for autorizada por lei para detetar, prevenir, investigar e reprimir infrações penais.

Por exemplo, se um profissional de edição de vídeo utiliza inteligência artificial em seu software de edição como apoio ao seu trabalho, isso não precisa estar marcado como “produzido por inteligência artificial” no resultado final.

3. Informar sobre o tratamento de dados pessoais

A obrigação de transparência em sistemas de IA também conversa com leis de proteção de dados pessoais.

O AI Act dispõe que “os responsáveis pela implantação de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar as pessoas expostas a esse sistema do seu funcionamento e tratar os dados pessoais em conformidade com os Regulamentos (UE) 2016/679, e (UE) 2018/1725 e a Diretiva (UE) 2016/680, conforme aplicável”. 

A exceção é que esta terceira obrigação “não se aplica aos sistemas de IA usados para categorização biométrica e reconhecimento de emoções legalmente autorizados para detectar, prevenir ou investigar infrações penais, sob reserva de garantias adequadas dos direitos e liberdades de terceiros, e nos termos do direito da União”.

4. Comunicar o uso de deep fakes

Deep fakes são formas de falsificação profunda de imagens, áudios ou vídeos. É quando um sistema de IA consegue gerar, por exemplo, um vídeo realista de um político ou celebridade falando algo que ele na realidade nunca falou.

O AI Act dispõe que os responsáveis pela implantação de um sistema de IA que gere ou manipule conteúdos de imagem, áudio ou vídeo que constituam uma falsificação profunda devem revelar que os conteúdos foram artificialmente gerados ou manipulados. 

Mais uma vez, a obrigação não se aplica se a utilização for autorizada por lei para “detectar, prevenir, investigar ou reprimir infrações penais”. 

O dispositivo também determina que sempre que os conteúdos façam parte de um programa ou obra de natureza manifestamente artística, criativa, satírica, ficcional ou análoga, as obrigações de transparência limitam-se à divulgação da existência desses conteúdos gerados ou manipulados, de uma forma adequada que não prejudique a exibição ou a fruição da obra.

Já os responsáveis pela implantação de um sistema de IA que gere ou manipule texto publicado com o objetivo de informar o público sobre questões de interesse público devem revelar que o texto foi artificialmente gerado ou manipulado. 

Aqui também a obrigação não se aplica se a utilização for autorizada por lei para detectar, prevenir, investigar e reprimir infrações penais ou se os conteúdos gerados por IA tiverem sido objeto de um processo de análise humana ou de controle editorial e se uma pessoa singular ou coletiva for responsável editorial pela publicação do conteúdo.

5. Ter clareza e prontidão nas comunicações ao público

A quinta obrigação de transparência em sistemas de IA refere-se às quatro anteriores. 

O AI Act dispõe que todas as quatro devem ser prestadas às pessoas singulares em causa de forma clara e percetível o mais tardar quando da primeira interação ou exposição. 

Além disso, as informações devem estar em conformidade com os requisitos de acessibilidade aplicáveis. Ou seja, devem poder ser absorvidas mesmo por pessoas que possuam alguma deficiência ou capacidade reduzida.

6. Não deixar de atender outras obrigações de transparência

A penúltima das obrigações de transparência em sistemas de IA fala que as quatro primeiras obrigações não devem prejudicar outras outras obrigações de transparência aplicáveis aos responsáveis pela implantação de sistemas de IA estabelecidas no direito da União ou no direito nacional.

Elas também não devem prejudicar as demais obrigações dispostas ao longo do AI Act, sobretudo no Capítulo III, que trata da inteligência artificial de risco elevado.

7. Seguir o Serviço Europeu para a Inteligência Artificial

O Serviço Europeu para a Inteligência Artificial (Serviço para a IA) é o centro dos conhecimentos especializados em matéria de IA em toda a União Europeia, que promove o desenvolvimento e a implantação de soluções de IA que beneficiem a sociedade e a economia.

O AI Act dispõe que a última obrigação de transparência em sistemas de IA é seguir as diretrizes do Serviço.

O regulamento explica que o Serviço para a IA “incentiva e facilita a elaboração a nível da União de códigos de práticas para facilitar a aplicação efetiva das obrigações em matéria de detecção e rotulagem de conteúdos artificialmente gerados ou manipulados”. 

O texto diz ainda que ele “pode adotar atos de execução para aprovar esses códigos de práticas em conformidade com o procedimento previsto no artigo 56o, número 6”. E que “se considerar que o código não é adequado, a Comissão pode adotar um ato de execução que especifique as regras comuns para a aplicação dessas obrigações, em conformidade com o procedimento de exame previsto no artigo 98o, número 2”.

Conclusão

A transparência em sistemas de IA ocupa posição central no AI Act, especialmente no artigo 50º. O regulamento estabelece um conjunto de 7 obrigações que visam reduzir a opacidade algorítmica e proteger os usuários.

Entre essas obrigações, destacam-se o dever de informar quando há interação com IA, a identificação de conteúdos sintéticos, a comunicação sobre deep fakes e a transparência no uso de dados sensíveis. Todas essas medidas buscam garantir que o usuário compreenda o contexto em que está inserido.

O texto também prevê exceções relevantes, sobretudo em situações envolvendo investigação criminal e liberdade artística. Isso demonstra uma tentativa de equilibrar transparência com outros valores jurídicos.

Além disso, o AI Act reforça a necessidade de clareza, acessibilidade e integração com outras normas, consolidando um modelo regulatório baseado em responsabilidade e informação.

Em termos práticos, a transparência deixa de ser apenas um princípio e se torna um dever jurídico concreto. Isso impacta diretamente o desenvolvimento e a implementação de sistemas de IA.

Foto por Tara Winstead (Pexels)

Sobre
Walmar Andrade
Walmar Andrade
Índice