Resumo
- Modelos de IA de finalidade geral são tecnologias versáteis, como o GPT-4 e o Gemini, treinadas em larga escala para múltiplas tarefas.
- Modelos com risco sistêmico são classificados pelo alto impacto no mercado ou pelo uso de poder computacional de larga escala.
- As obrigações principais incluem a manutenção de documentação técnica, resumos de dados de treino e o respeito estrito aos direitos de autor.
- Prestadores de modelos de risco sistêmico devem realizar testes antagônicos, garantir cibersegurança e comunicar incidentes graves imediatamente.
- O Serviço para a IA facilitará a criação de códigos de práticas para orientar a aplicação correta das normas.
Introdução
O desenvolvimento da inteligência artificial generativa fez com que o legislador europeu criasse categorias jurídicas específicas para as tecnologias que servem de base para múltiplas aplicações, como por exemplo os modelos de IA de finalidade geral, tratados no Capítulo V do AI Act.
Os modelos de linguagem de grande escala são os exemplos mais conhecidos de IA de finalidade geral: ChatGPT, Claude, Google Gemini etc. Eles são treinados em bases de dados massivas e podem realizar tarefas que variam desde a redação de contratos jurídicos até a criação de código de programação.
Estes modelos não possuem uma função única e predefinida, podendo ser integrados em diversos sistemas e setores da economia, o que justifica uma atenção especial quanto aos seus riscos e transparência.
O Capítulo V do AI Act define as regras para os desenvolvedores dessas tecnologias, separando os modelos comuns daqueles que apresentam risco sistêmico para a sociedade.
A análise deste capítulo revela o equilíbrio buscado pela União Europeia entre o incentivo à inovação tecnológica e a proteção dos direitos fundamentais.
Neste texto, veremos como o uso massivo de dados de treino e o poder computacional transformaram-se em critérios de regulação jurídica. Além disso, abordaremos as obrigações de documentação técnica e o respeito aos direitos de autor que agora são exigidos por lei.
Vamos analisar em detalhes:
Vamos começar analisando o conceito de modelos de IA de finalidade geral com risco sistêmico.
1. Conceito de modelos de IA de finalidade geral com risco sistêmico
O artigo 51o do AI Act define dispõe que um modelo de IA de finalidade geral é classificado como modelo de IA de finalidade geral com risco sistêmico se preencher qualquer uma das seguintes condições:
- Ter capacidades de elevado impacto avaliadas com base em ferramentas e metodologias técnicas adequadas, incluindo indicadores e parâmetros de referência; ou
- Ter capacidades ou um impacto equivalentes às estabelecidas na alínea anterior, tendo em conta os critérios estabelecidos no Anexo XIII do AI Act, com base numa decisão da Comissão, de ofício ou na sequência de um alerta qualificado do painel científico.
O Anexo XIII traz a lista de critérios para a designação de modelos de IA de finalidade geral com risco sistêmico:
- O número de parâmetros do modelo;
- A qualidade ou dimensão do conjunto de dados, por exemplo, medida através de tokens;
- A quantidade de cálculo utilizada para o treinamento do modelo, medida em operações de vírgula flutuante ou indicada por uma combinação de outras variáveis, como o custo estimado do treino, o tempo estimado necessário para o treino ou o consumo estimado de energia para o treino;
- As modalidades de entrada e de saída do modelo, tais como texto para texto (grandes modelos linguísticos, conhecidos como LLM), texto para imagem, multimodalidade e limiares de ponta para determinar as capacidades de elevado impacto para cada modalidade, bem como o tipo específico de entradas e saídas (por exemplo, sequências biológicas);
- Os parâmetros de referência e avaliações das capacidades do modelo, nomeadamente tendo em conta o número de tarefas sem treino adicional, a adaptabilidade à aprendizagem de tarefas novas e distintas, o seu nível de autonomia e escalabilidade e as ferramentas a que tem acesso;
- Se tem um elevado impacto no mercado interno devido ao seu alcance, o que se presume quando tiver sido disponibilizado a, pelo menos, 10 mil usuários empresariais registrados estabelecidos na União;
- O número de usuários finais registrados.
O artigo também dispõe que se presume que um modelo de IA de finalidade geral tem capacidades de elevado impacto quando a quantidade acumulada de cálculo utilizado para o seu treinamento, medido em operações de vírgula flutuante por segundo, for superior a 1025.
1.1 Procedimentos a serem adotados
Quando sistemas são classificados como modelos de IA de finalidade geral, os responsáveis possuem uma série de procedimentos a serem adotados, conforme o artigo 52o.
O primeiro procedimento é notificar a Comissão Europeia sem demora e, em qualquer caso, no prazo de duas semanas a contar da data em que preencheu o requisito para ser classificado como modelos de IA de finalidade geral ou da data em que se soube que esse requisito vai ser preenchido.
A notificação deve incluir as informações necessárias para demonstrar que o requisito em causa foi preenchido.
Se a Comissão tomar conhecimento de modelos de IA de finalidade geral que apresentem riscos sistêmicos dos quais não tenha sido notificada, pode decidir designá-lo como um modelo com risco sistêmico.
O segundo procedimento é a possibilidade de apresentar, junto com a notificação, argumentos fundamentados para demonstrar que, excepcionalmente, embora preencha os requisitos, o sistema não apresenta, devido às suas características específicas, riscos sistêmicos e, por isso, não deve ser classificado como um dos modelos de IA de finalidade geral com risco sistêmico.
A Comissão pode concluir que os argumentos apresentados não estão suficientemente fundamentados e que o responsável não conseguiu demonstrar que o modelo não apresenta riscos sistêmicos.
Nesse caso, a Comissão rejeita esses argumentos e o modelo de IA de finalidade geral é considerado um modelo de IA de finalidade geral com risco sistêmico.
A Comissão também pode designar um modelo de IA de finalidade geral como apresentando riscos sistêmicos, de ofício ou na sequência de um alerta qualificado do painel científico.
Segundo o artigo 90º, o painel científico pode emitir um alerta qualificado ao Serviço Europeu para a Inteligência Artificial (Serviço para a IA) se tiver motivos para suspeitar que:
- Um modelo de IA de finalidade geral apresenta um risco concreto identificável a nível da União; ou
- Um modelo de IA de finalidade geral preenche as condições a que se refere o artigo 51º.
Na sequência desse alerta qualificado, a Comissão pode exercer os poderes estabelecidos para efeitos de avaliação da questão. Um alerta qualificado deve ser devidamente fundamentado e indicar, pelo menos:
- O ponto de contato do prestador do modelo de IA de finalidade geral com risco sistêmico em causa;
- Uma descrição dos fatos pertinentes e dos motivos para o alerta do painel científico;
- Quaisquer outras informações que o painel científico considere pertinentes, incluindo, conforme o caso, informações que tenha recolhido por sua própria iniciativa.
Outro procedimento possível é o pedido de reconsideração.
Esse pedido é um requerimento fundamentado de um prestador cujo modelo tenha sido designado como modelo de IA de finalidade geral com risco sistêmico para que a Comissão possa decidir reavaliar se o modelo ainda pode ser considerado como apresentando riscos sistêmicos.
Por fim, a Comissão tem o procedimento de publicar uma lista de modelos de IA de finalidade geral com risco sistêmico e mantê-la atualizada, sem prejuízo da necessidade de observar e proteger os direitos de propriedade intelectual e as informações comerciais de caráter confidencial ou segredos comerciais, em conformidade com o direito da União Europeia e o direito nacional.
2. As 4 obrigações dos prestadores de modelos de IA de finalidade geral
O artigo 53o. do AI Act elenca um rol de quatro obrigações que os prestadores de modelos de IA de finalidade geral devem cumprir:
- Elaborar e manter atualizada a documentação técnica do modelo, incluindo o seu processo de treino e de testagem e os resultados da sua avaliação.
- Elaborar, manter atualizadas e disponibilizar informações e documentação aos prestadores de sistemas de IA que pretendam integrar o modelo de IA de finalidade geral nos seus sistemas de IA (via API, por exemplo).
- Aplicar uma política para dar cumprimento ao direito da União Europeia em matéria de direitos de autor e direitos conexos e, em especial, identificar e cumprir, nomeadamente através de tecnologias de ponta, uma reserva de direitos expressa nos termos do artigo 4o, número 3, da Diretiva (UE) 2019/790.
- Elaborar e disponibilizar ao público um resumo suficientemente pormenorizado sobre os conteúdos utilizados para o treino do modelo de IA de finalidade geral, de acordo com um modelo facultado pelo Serviço para a IA.
As duas primeiras obrigações não se aplicam aos prestadores de modelos de IA de licença gratuita e aberta que “permita o acesso, a utilização, a modificação e a distribuição do modelo, e cujos parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização do modelo, sejam disponibilizados ao público”.
Esta exceção, no entanto, não se aplica a modelos de IA de finalidade geral com riscos sistêmicos que vimos no tópico 1.
Além das obrigações listadas, os prestadores de modelos de IA de finalidade geral devem cooperar na medida do necessário com a Comissão e as autoridades nacionais competentes no exercício das suas competências e poderes.
2.1 Mandatários dos prestadores de modelos de IA de finalidade geral
Prestadores estabelecidos em países fora da União Europeia devem, mediante mandato escrito, designar um mandatário estabelecido na União Europeia antes de colocarem um modelo de IA de finalidade geral no mercado de lá.
O prestador deve habilitar o seu mandatário a desempenhar as funções especificadas no mandato conferido pelo prestador. O mandato habilita o mandatário a exercer as seguintes funções:
- Verificar se a documentação técnica especificada e se todas as obrigações foram cumpridas pelo prestador;
- Conservar uma cópia da documentação técnica que deve ficar ao dispor do Serviço para a IA e das autoridades nacionais competentes;
- Prestar ao Serviço para a IA, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar o cumprimento com as obrigações previstas;
- Cooperar com o Serviço para a IA e as autoridades competentes, mediante pedido fundamentado, em qualquer medida que estas tomem em relação ao modelo de IA de finalidade geral, inclusive quando o modelo esteja integrado em sistemas de IA colocados no mercado ou colocados em serviço na União Europeia.
Mediante pedido, o mandatário deve fornecer ao Serviço para a IA uma cópia do mandato numa das línguas oficiais das instituições da União Europeia.
O mandato habilita o mandatário a ser contatado, em complemento ou em alternativa ao prestador, pelo Serviço para a IA ou pelas autoridades competentes, sobre todas as questões relacionadas com a garantia da conformidade com o AI Act.
O mandatário pode finalizar o mandato se considerar que o prestador age de forma contrária às obrigações que lhe incumbem por força do regulamento. Nesse caso, informa também imediatamente o Serviço para a IA da cessação do mandato e dos respectivos motivos.
Mais uma vez, esta obrigação não se aplica aos prestadores de modelos de IA de finalidade geral de licença gratuita e de fonte aberta que permita o acesso, a utilização, a modificação e a distribuição do modelo, e cujos parâmetros, incluindo as ponderações, as informações sobre a arquitetura do modelo e as informações sobre a utilização do modelo, sejam disponibilizados ao público, a menos que os modelos de IA de finalidade geral apresentem riscos sistêmicos.
3. As 4 obrigações adicionais dos prestadores de modelos de IA de finalidade geral com risco sistêmico
Para além das obrigações enumeradas nos tópicos anteriores, os prestadores de modelos de IA de finalidade geral com risco sistêmico possuem quatro obrigações adicionais:
- Realizar a avaliação do modelo em conformidade com protocolos e instrumentos normalizados que reflitam o estado da arte, incluindo a realização e documentação de testagens antagônicas do modelo, com vista a identificar e atenuar os riscos sistêmicos;
- Avaliar e atenuar eventuais riscos sistêmicos a nível da União Europeia, incluindo as respetivas fontes, que possam resultar do desenvolvimento, da colocação no mercado ou da utilização de modelos de IA de finalidade geral com risco sistêmico;
- Em caso de incidentes graves, acompanhar, documentar e comunicar, sem demora injustificada, ao Serviço para a IA e, se for caso disso, às autoridades nacionais competentes, as informações pertinentes;
- Assegurar um nível adequado de proteção em termos de cibersegurança para o modelo de IA de finalidade geral com risco sistémico e a infraestrutura física do modelo.
O artigo diz ainda que os prestadores de modelos de IA de finalidade geral com risco sistêmico que não cumpram um código de práticas aprovado ou que não cumpram uma norma europeia harmonizada devem demonstrar meios de conformidade alternativos adequados para avaliação pela Comissão.
4. Códigos de práticas para modelos de IA de finalidade geral
O último tópico do AI Act acerca dos modelos de IA de finalidade trata da elaboração, até o fim do ano de 2025, de códigos de boas práticas para que os responsáveis pelas inteligências artificiais desta categoria possam aplicar corretamente o que está previsto na lei.
A elaboração dos códigos de práticas é incentivada e facilitada pelo Serviço para a IA.
Como vimos no texto anterior, o Serviço Europeu para a Inteligência Artificial (Serviço para a IA) é o centro dos conhecimentos especializados em matéria de IA em toda a União Europeia, que promove o desenvolvimento e a implantação de soluções de IA que beneficiem a sociedade e a economia.
Junto ao Comitê Europeu, o Serviço procura assegurar que os códigos de práticas abranjam, pelo menos, as obrigações previstas nos artigos 53o e 55o do AI Act, incluindo os seguintes elementos:
- Os meios para assegurar que as informações sejam mantidas atualizadas à luz da evolução tecnológica e do mercado;
- O nível de detalhamento adequado para o resumo dos conteúdos utilizados no treinamento dos modelos de IA de finalidade geral;
- A identificação do tipo e da natureza dos riscos sistêmicos ao nível da União Europeia, incluindo as respetivas fontes, se for o caso;
- As medidas, procedimentos e modalidades de avaliação e gestão dos riscos sistêmicos a nível da União Europeia, incluindo a respectiva documentação, que devem ser proporcionados em relação aos riscos, ter em conta a sua gravidade e probabilidade e ter em conta os desafios específicos da resposta a esses riscos à luz das possíveis formas como podem surgir e materializar-se ao longo da cadeia de valor da IA.
O Serviço para a IA pode convidar todos os prestadores de modelos de IA de finalidade geral, bem como as autoridades nacionais competentes, a participar na elaboração de códigos de práticas.
As organizações da sociedade civil, a indústria, o meio acadêmico e outras partes interessadas pertinentes também podem apoiar o processo.
O Serviço para a IA deve ainda assegurar que os participantes nos códigos de práticas lhe comuniquem regularmente a execução dos compromissos e das medidas tomadas e os seus resultados, nomeadamente, se adequado, em função dos indicadores-chave de desempenho.
O Serviço também pode convidar os prestadores de modelos de IA de finalidade geral a aderirem aos códigos de práticas.
Para os prestadores de modelos de IA de finalidade geral que não apresentem riscos sistêmicos, esta adesão pode limitar-se às obrigações previstas no artigo 53o do AI Act, a menos que eles declarem explicitamente o seu interesse em aderir à integralidade do código.
5. Conclusão
Ao distinguir os modelos de IA de finalidade geral entre modelos comuns e modelos com risco sistêmico, a União Europeia aplica o princípio da proporcionalidade: quanto maior o poder computacional e o impacto potencial, mais rigorosas são as obrigações de vigilância.
A transparência é o pilar central dessa norma. Exigir documentação técnica detalhada, resumos de dados de treinamento e a conformidade com direitos autorais protege não apenas o mercado, mas toda a cadeia de valor que depende desses modelos fundacionais.
Para os prestadores de fora da Europa, a figura do mandatário e a adesão aos códigos de práticas serão os caminhos para a viabilidade comercial no bloco.
Em última análise, o Capítulo V busca mitigar os riscos de modelos que, por sua enorme escala, podem afetar a segurança pública e os direitos fundamentais em nível continental.
Para o cenário brasileiro, essas regras servem como um roteiro prático para a futura regulação nacional, equilibrando a inovação necessária com a necessária segurança jurídica.






