Resumo
- Medidas de apoio à inovação em inteligência artificial previstas no Capítulo VI do AI Act equilibram regulação e incentivo ao desenvolvimento tecnológico
- Sandboxes regulatórios permitem testar sistemas de IA com supervisão e menor risco jurídico
- O uso de dados pessoais é permitido de forma excepcional, com fortes salvaguardas
- Testes em condições reais exigem consentimento, supervisão humana e controle de riscos
- O AI Act incentiva startups e pequenas e médias empresas com redução de barreiras e apoio institucional
Introdução
Uma das maiores críticas que o AI Act recebeu foi que a regulamentação travaria o desenvolvimento da inteligência artificial na Europa. O regulamento, no entanto, possui um capítulo inteiro dedicado a medidas de apoio à inovação em inteligência artificial.
O Capítulo VI do AI Act busca equilibrar dois objetivos que muitas vezes entram em tensão: a proteção de direitos fundamentais e o estímulo ao desenvolvimento tecnológico. Assim, a União Europeia parte da premissa de que a regulação não deve apenas impor limites, mas também criar condições para a inovação responsável.
O capítulo introduz instrumentos como sandboxes regulatórios, medidas de apoio a pequenas e médias empresas e regras para testes em condições reais.
Esses mecanismos não apenas reduzem barreiras de entrada, mas também promovem maior segurança jurídica para desenvolvedores e operadores de sistemas de IA.
Ao mesmo tempo, essas medidas levantam questões relevantes sobre governança, proteção de dados e responsabilidade jurídica.
A análise dessas ferramentas exige compreender sua articulação com outros regimes normativos, especialmente o Regulamento Geral de Proteção de Dados (GDPR) e os princípios de direitos fundamentais da União Europeia.
Vamos analisar em detalhes neste texto:
Vamos começar analisando o AI Act e o equilíbrio entre regulação e inovação.
1. Sandboxes regulatórios como medidas de apoio à inovação em inteligência artificial
1.1 Conceito de sandbox regulatório
O sandbox regulatório consiste em um ambiente controlado no qual empresas podem testar soluções inovadoras sob supervisão de autoridades competentes.
A metáfora da “caixa de areia” (ou sandbox, em inglês) refere-se à criação de um ambiente seguro, controlado e limitado, semelhante a um parquinho infantil, onde empresas podem testar inovações tecnológicas e novos modelos de negócios sem os riscos e as regras rígidas do mercado real.
Trata-se de um instrumento de regulação experimental que permite a flexibilização temporária de determinadas exigências legais, sem afastar a proteção de direitos fundamentais.
No contexto de tecnologias de ponta, como a inteligência artificial generativa, o sandbox funciona como um espaço seguro para o desenvolvimento e validação de sistemas antes de sua disponibilização no mercado. Essa abordagem reduz a incerteza jurídica e permite ajustes técnicos e normativos ainda na fase de testes.
1.2 Previsão normativa no AI Act
O AI Act prevê expressamente a criação de sandboxes regulatórios no âmbito dos Estados-membros da União Europeia, conforme disposto no Capítulo VI.
O regulamento estabelece que essas estruturas devem ser implementadas pelas autoridades nacionais competentes, com o objetivo de promover a inovação em condições supervisionadas.
Além disso, o texto incentiva a harmonização desses ambientes no âmbito da União Europeia, de modo a evitar fragmentação regulatória e garantir condições equitativas entre os agentes econômicos.
1.3 Objetivos das sandboxes
As sandboxes regulatórias de IA possuem objetivos bem definidos.
O principal deles é permitir o desenvolvimento de sistemas inovadores em um ambiente que combine liberdade experimental e controle institucional.
Entre os objetivos específicos, destacam-se a identificação precoce de riscos, a melhoria da conformidade regulatória e o estímulo à inovação tecnológica.
Esses ambientes também facilitam o diálogo entre reguladores e desenvolvedores, o que contribui para uma regulação mais eficiente e adaptativa.
1.4 Participação e requisitos
A participação em sandboxes regulatórios depende do cumprimento de critérios estabelecidos pelas autoridades competentes.
Em geral, exige-se a apresentação de um plano de testes, a demonstração de potencial inovador e a adoção de medidas para mitigação de riscos.
O AI Act também prevê que os participantes devem assegurar a proteção de direitos fundamentais durante todo o período de testes.
Isso inclui, por exemplo, a observância de princípios como transparência, segurança e não discriminação.
1.5 Benefícios jurídicos e econômicos
As sandboxes oferecem benefícios relevantes tanto do ponto de vista jurídico quanto econômico.
Do ponto de vista jurídico, proporcionam maior previsibilidade regulatória e reduzem o risco de sanções durante a fase de desenvolvimento.
Do ponto de vista econômico, incentivam a entrada de novos agentes no mercado, especialmente startups e pequenas empresas.
Isso contribui para um ambiente mais competitivo e dinâmico, além de acelerar o ciclo de inovação tecnológica.
1.6 Comparação com experiências internacionais
A utilização de sandboxes regulatórios não é exclusiva do AI Act.
Experiências anteriores, especialmente no setor financeiro, demonstraram a eficácia desse modelo.
O Reino Unido foi pioneiro ao implantar sandboxes para fintechs, sob a supervisão da Financial Conduct Authority.
No Brasil, o Banco Central e a Comissão de Valores Mobiliários também adotaram iniciativas semelhantes.
Essas experiências mostram que o sandbox pode ser um instrumento eficiente para conciliar inovação e regulação, desde que haja governança adequada e supervisão efetiva.
2. Padronização dos sandboxes regulatórios
Para evitar a fragmentação em toda a União Europeia, a Comissão adota atos de execução que especifiquem as modalidades pormenorizadas para a criação, desenvolvimento, implementação, funcionamento e supervisão dos ambientes de testagem da regulamentação da IA.
Segundo o artigo 58o do AI Act, os atos de execução incluem princípios comuns sobre os seguintes elementos:
- A elegibilidade e os critérios de seleção para a participação no ambiente de testagem da regulamentação da IA, assegurando:
- Que os sandboxes estejam abertos a qualquer prestador ou potencial prestador de um sistema de IA que apresente um pedido e que preencha os critérios de elegibilidade;
- Que sandboxes facultem um acesso amplo e em condições de igualdade e acompanhem a procura de participação;
- Que as modalidades pormenorizadas e as condições relativas aos ambientes de testagem da regulamentação da IA apoiem, na medida do possível, a flexibilidade das autoridades nacionais para estabelecerem e operarem os seus ambientes de testagem;
- Que o acesso aos ambientes de testagem seja gratuito para as pequenas e microempresas, incluindo as empresas em fase de arranque, sem prejuízo dos custos excepcionais que as autoridades nacionais competentes possam recuperar de forma justa e proporcionada;
- Que os prestadores e os potenciais prestadores possam cumprir com maior facilidade, através dos resultados de aprendizagem dos ambientes de testagem da regulamentação da IA, as obrigações de avaliação da conformidade;
- Que os sandboxes facilitem a participação de outros intervenientes pertinentes no ecossistema da IA;
- Que os procedimentos, processos e requisitos administrativos sejam simples, facilmente compreensíveis e comunicados claramente e que a participação num ambiente de testagem da regulamentação da IA criado por um Estado-Membro ou pela Autoridade Europeia para a Proteção de Dados seja mútua e uniformemente reconhecida e tenha os mesmos efeitos jurídicos em toda a União Europeia;
- Que a participação seja limitada a um período adequado à complexidade e dimensão do projeto, com possibilidade de prorrogação;
- Que facilitem o desenvolvimento de instrumentos e de infraestruturas para testar, comparar, avaliar e explicar as dimensões dos sistemas de IA pertinentes para a aprendizagem regulamentar, como a exatidão, a robustez e a cibersegurança.
- Os procedimentos para a candidatura, participação, monitorização, saída e cessação do ambiente de testagem da regulamentação da IA, incluindo o plano do ambiente de testagem e o relatório de saída;
- Os termos e condições aplicáveis aos participantes.
2.1 Orientação a novos desenvolvedores
Quem tiver interesse em desenvolver um sistema de IA deve ser direcionado para os serviços de pré-implantação, como serviços de orientação sobre a aplicação do AI Act, e para outros serviços que apresentem um valor acrescentado, como a ajuda para os documentos de normalização e à certificação, as instalações de testagem e experimentação, os polos de inovação digital europeus e os centros de excelência.
Sempre que pretendam autorizar a testagem em condições reais supervisionada no âmbito de um ambiente de testagem da regulamentação da IA, as autoridades nacionais devem acordar especificamente os termos e condições dessa testagem e, em especial, as salvaguardas adequadas com os participantes com vista a proteger os direitos fundamentais, a saúde e a segurança.
3. Tratamento adicional de dados pessoais entre as medidas de apoio à inovação em inteligência artificial
O artigo 59o do AI Act estabelece as condições em que dados pessoais originalmente coletados para outras finalidades podem ser reutilizados no contexto de sandboxes regulatórios de inteligência artificial.
Essa reutilização é excepcional e só é permitida quando destinada ao desenvolvimento, treinamento e teste de sistemas de IA de interesse público relevante.
O dispositivo limita essa possibilidade a projetos que atendam a finalidades específicas, como segurança pública, saúde, proteção ambiental, sustentabilidade energética, infraestrutura e melhoria da administração pública.
Além disso, exige que o uso de dados pessoais seja estritamente necessário, ou seja, apenas quando não for possível alcançar os mesmos resultados com dados anonimizados ou sintéticos.
3.1 Salvaguardas para o uso de dados pessoais em sandboxes regulatórios
O artigo também impõe um conjunto rigoroso de salvaguardas para o tratamento de dados pessoais em sandboxes regulatórios de IA.
Entre as salvaguardas, destacam-se a necessidade de avaliação prévia de riscos aos direitos fundamentais, a adoção de medidas técnicas e organizacionais de segurança, o isolamento do ambiente de tratamento e a restrição de acesso apenas a pessoas autorizadas.
Os dados pessoais não podem ser compartilhados fora do ambiente de testagem, nem utilizados para tomar decisões que afetem diretamente os titulares.
Outro ponto relevante é a exigência de transparência e accountability.
O AI Act determina a manutenção de registros das operações de tratamento, a documentação detalhada dos processos de treinamento e teste e a publicação de um resumo do projeto, resguardadas informações sensíveis.
O artigo 59o também prevê que essas regras se aplicam, com as devidas adaptações, ao uso de dados pessoais por autoridades de aplicação da lei, desde que haja base legal específica.
Por fim, esclarece que suas disposições não afastam outras bases jurídicas previstas no direito europeu ou nacional para o tratamento de dados pessoais, preservando a coerência com o regime geral de proteção de dados.
4. Testagem de sistemas de IA de risco elevado em condições reais fora dos ambientes de testagem da regulamentação da IA
O artigo 60o do AI Act regula a testagem de sistemas de inteligência artificial de risco elevado em condições reais fora dos ambientes de sandbox regulatório.
A norma permite que prestadores testem esses sistemas antes de sua colocação no mercado, desde que observem requisitos rigorosos de segurança, supervisão e proteção de direitos fundamentais.
A realização desses testes depende da elaboração de um plano de testagem em condições reais, que deve ser submetido à autoridade nacional competente.
A testagem só pode ocorrer após aprovação expressa ou tácita dessa autoridade, além do cumprimento de exigências como registro em base de dados da União Europeia e presença de estabelecimento ou representante legal na União.
4.1 Limites para a condução dos testes
O artigo estabelece limites claros para a condução dos testes.
Entre eles, destacam-se:
- a duração máxima de seis meses, prorrogável por igual período;
- a proibição de transferência indevida de dados para países terceiros; e
- a necessidade de garantir proteção especial a grupos vulneráveis.
O artigo também exige que os participantes sejam devidamente informados e que, em regra, forneçam consentimento informado.
4.2 Exigência de supervisão humana
Outro ponto central é a exigência de supervisão efetiva durante a testagem.
Os sistemas devem operar sob controle humano qualificado, e suas decisões devem poder ser revertidas.
Além disso, os participantes podem retirar seu consentimento a qualquer momento, com direito ao apagamento de seus dados pessoais.
O dispositivo também reforça a atuação das autoridades de fiscalização, que podem realizar inspeções e exigir informações para assegurar a conformidade dos testes.
Incidentes graves devem ser comunicados imediatamente, e o prestador deve adotar medidas corretivas ou suspender a testagem.
Por fim, o artigo 60o estabelece a responsabilidade do prestador por eventuais danos causados durante a testagem em condições reais, consolidando a lógica de responsabilização no desenvolvimento de sistemas de IA de risco elevado.
5. Consentimento para testes nas medidas de apoio à inovação em inteligência artificial
O artigo 61o do AI Act trata do consentimento informado que as pessoas devem dar para participar em testagens em condições reais fora dos ambientes de testagem da regulamentação da IA.
Tal consentimento deve ser dado livremente pelos participantes na testagem antes da sua participação e após o recebimento de informações claras e adequadas sobre:
- A natureza e os objetivos da testagem em condições reais e os eventuais incómodos que possam estar ligados à sua participação na testagem;
- As condições em que a testagem em condições reais vai realizar-se, incluindo a duração prevista da sua participação na testagem;
- Os seus direitos e garantias no tocante à sua participação, em particular o seu direito de recusar a participação na testagem em condições reais e o direito de se retirar da mesma em qualquer altura sem que daí decorra qualquer prejuízo e sem ter de dar qualquer justificação;
- As modalidades para solicitar que as previsões, recomendações ou decisões do sistema de IA sejam revertidas ou ignoradas;
- O número único de identificação a nível da União Europeia da testagem em condições reais e os dados de contato do prestador, ou do seu representante legal, junto do qual podem ser obtidas mais informações.
O artigo dispõe ainda que o consentimento informado deve ser datado e documentado, Uma cópia deve ser entregue aos participantes na testagem ou ao seu representante legal.
6. Medidas de apoio à inovação em inteligência artificial para pequenas empresas e startups
O AI Act também prevê, em seu artigo 62o, medidas de apoio à inovação em inteligência artificial para pequenas e médias empresas (PME) e startups (chamadas de “empresas em fase de arranque”, na tradução oficial para o português europeu).
O artigo diz que os Estados-Membros da União Europeia devem tomar as seguintes ações para incentivar essas empresas:
- Dar acesso prioritário aos ambientes de testagem da regulamentação da IA;
- Organizar atividades de sensibilização e de formação específicas às necessidades das PME;
- Utilizar os canais específicos existentes e, se for caso disso, criar canais novos para a comunicação com as PME;
- Facilitar a participação das PME e de outras partes interessadas relevantes no processo de desenvolvimento da normalização.
O dispositivo diz ainda que os interesses e as necessidades específicas dessas empresas devem ser tidos em conta aquando da fixação das taxas a pagar pela avaliação da conformidade, reduzindo essas taxas proporcionalmente à sua dimensão, à dimensão do mercado e demais indicadores pertinentes.
6.1 Obrigações do Serviço para a IA
O artigo também lista quatro obrigações que o Serviço para a IA deve empreender para melhorar as medidas de apoio à inovação em inteligência artificial voltadas para PME e startups:
- Disponibilizar modelos normalizados para os domínios abrangidos pelo AI Act, conforme especificado pelo Comitê;
- Desenvolver e manter uma plataforma única de informação que faculte a todos os operadores em toda a União Europeia informações de fácil utilização a respeito do AI Act;
- Organizar campanhas de comunicação adequadas para sensibilizar para as obrigações decorrentes do AI Act;
- Avaliar e promover a convergência das boas práticas nos processos de adjudicação de contratos públicos em relação aos sistemas de IA.
Conclusão
O Capítulo VI do AI Act demonstra que a regulação da inteligência artificial não precisa ser um obstáculo à inovação. Ao contrário, pode funcionar como um instrumento de estímulo ao desenvolvimento tecnológico responsável.
As sandboxes regulatórias se destacam como o principal mecanismo de incentivo. Elas permitem que empresas testem sistemas de IA em ambientes controlados, com supervisão estatal e menor risco jurídico. Esse modelo reduz incertezas e aproxima reguladores e desenvolvedores.
O regulamento também avança ao permitir o uso excepcional de dados pessoais para fins de desenvolvimento de IA, desde que observadas salvaguardas rigorosas. Essa abertura é relevante, mas exige forte compromisso com a proteção de direitos fundamentais.
Outro ponto central é a possibilidade de testagem em condições reais. O AI Act autoriza esses testes, mas impõe limites claros, como supervisão humana, consentimento informado e responsabilidade por danos.
Além disso, o regulamento dedica atenção especial a pequenas empresas e startups. Ao reduzir custos e facilitar o acesso a ambientes de testagem, a União Europeia busca evitar a concentração de mercado e estimular a inovação descentralizada.
Em síntese, o AI Act adota uma abordagem equilibrada. Ele combina regulação baseada em risco com instrumentos de incentivo, criando um modelo que pode influenciar outras jurisdições, inclusive o Brasil.






