Quais são as regulamentações das Inteligências Artificiais em diferentes países? Analise as semelhanças e diferenças
Ouça a entrevista do colunista da Jovem Pan com o advogado e mestrando na Florida Christian University, Dr. Bruno de Almeida Vieira, sobre o tema.

No âmbito jurídico, o debate sobre a Inteligência Artificial (IA) tornou-se o ponto de convergência entre inovação tecnológica, direitos fundamentais e estratégias de mercado. Conforme algoritmos passam a influenciar nosso cotidiano, aumenta a pressão para que governos estabeleçam normas claras e aptas a proteger o cidadão sem restringir a criatividade no desenvolvimento. É justamente nesse encontro entre o direito e a inovação digital que se encontra o entrevistado de hoje.
CONTINUA DEPOIS DA PUBLICIDADE
O Dr. Bruno de Almeida Vieira é advogado, Data Protection Officer certificado EXIN, instituição holandesa renomada e referência mundial em qualificação de profissionais na área, e mestrando na Florida Christian University, onde pesquisa Gestão das Tecnologias Digitais Avançadas, com foco particular na Regulamentação da IA. Atualmente, ele dialoga com o colunista da Jovem Pan, Dr. Davis Alves, para abordar um panorama das convergências e divergências das legislações de IA em âmbito global e suas implicações para empresas e cidadãos do Brasil e do exterior.
Dr. Davis Alves: Dr. Bruno, por que a regulação da IA deixou de ser uma tendência e se tornou uma necessidade urgente?
Leia também:

CNPPD 2025: Compreenda a importância da soberania digital em meio à crescente tensão internacional

Mercados asiáticos recuam com a expectativa da reação do Irã aos Estados Unidos

O City vence o Al-Ain, assegura passagem para a fase seguinte da competição mundial, porém chega para o confronto decisivo em segundo lugar, atrás da Juventus
O Dr. Bruno Vieira afirma que os sistemas de IA deixaram de ser apenas um interesse de laboratório e agora tomam decisões que impactam a vida das pessoas. Esses sistemas são complexos, difíceis de auditar e, caso falhem, podem gerar grandes prejuízos. Por isso, os países estão buscando estabelecer regulamentações antes que os problemas se tornem maiores que as soluções.
O Dr. Davis Alves observa se há alguma convergência nas regulamentações de IA entre os diversos sistemas jurídicos?
CONTINUA DEPOIS DA PUBLICIDADE
Dr. Bruno Vieira: Sem dúvida. Quando comparamos projetos de lei de lugares tão diferentes quanto União Europeia, Canadá, Brasil ou mesmo nas diretrizes publicadas pelos Estados Unidos, encontramos um verdadeiro “eixo central” em todas essas propostas. Primeiro, há a ideia de classificar cada uso da IA conforme o grau de perigo: quanto maior o risco para a sociedade, mais rigorosas se tornam as exigências. Depois vem a transparência: o usuário precisa saber que está conversando com uma máquina e os órgãos de fiscalização têm de conseguir examinar o sistema por dentro, como quem abre o capô de um carro. Em seguida, surge a exigência de olho humano no processo; decisões realmente sérias não podem ficar sem supervisão de uma pessoa. Esse pacote se completa com uma proteção clara aos direitos fundamentais em busca de impedir discriminação, invasão de privacidade e riscos à segurança, e, por fim, com a identificação de responsáveis: quem treinou, quem opera, quem lucra com o modelo deve estar registrado, para que haja a quem recorrer se algo der errado. apesar das diferenças culturais, existe sim um consenso internacional de que IA só é bem-vinda quando combina risco bem definido, vitrine aberta, supervisão humana, respeito a direitos e responsabilidade clara.
Dr. Davis Alves: Se há tanto consenso em alguns aspectos, em que pontos as propostas de cada país realmente divergem?
Dr. Bruno Vieira: Ao comparar as legislações, observa-se que elas começam a divergir já no desenho institucional. A União Europeia optou por uma única lei abrangente, o AI Act, que se aplica, sem adaptações, aos 27 Estados-membros e prevê sanções que podem chegar a 7% do faturamento global de uma empresa. Nos Estados Unidos, o quadro é fragmentado, pois não existe uma norma federal exclusiva para IA, enquanto cada agência regula seu setor e o governo publicou apenas uma ordem executiva com recomendações gerais, deixando lacunas que se preenchem caso a caso. Já o Reino Unido trilhou um caminho intermediário, descentralizando a fiscalização, onde cada setor como saúde, transporte, mercado financeiro etc., recebem autonomia para aplicar as diretrizes técnicas dentro de suas respectivas áreas.
A segunda distinção relevante reside na denominação “alto risco”. A Europa implementa uma lista estrita de usos proibidos ou fortemente regulamentados, como o reconhecimento facial em tempo real para vigilância em massa. A China não proíbe essa prática, mas exige que empresas registrem algoritmos sensíveis e disponibilizem trechos de código para auditoria estatal, intensificando a supervisão governamental. No Brasil, o Projeto de Lei 2338/2023 segue a lógica europeia, embora o Congresso ainda debata se ferramentas de recrutamento, por exemplo, devem ser automaticamente classificadas como sistemas de alto risco ou receber tratamento mais flexível. Finalmente, há o alcance territorial. O modelo europeu adota o princípio do mercado-destino, onde a simples oferta de um sistema de IA dentro da União Europeia obriga a empresa a cumprir o AI Act, independentemente de sua localização. Já o Canadá, no projeto AIDA, aplica o teste da “conexão real e substancial” com o país, permitindo uma margem maior para que empresas sediadas no exterior argumentem que suas operações não se enquadram na lei canadense.
Dr. Davis Alves: Considerando a legislação única da UE e as diretrizes setoriais dos Estados Unidos, quais aspectos são realmente relevantes para quem atua com IA no Brasil?
Dr. Bruno Vieira: Na União Europeia, a mentalidade é preventiva: antes que uma empresa coloque seu sistema no mercado, já precisa provar que ele está em conformidade com uma série de exigências pré-definidas. Há listas explícitas do que é proibido ou fortemente limitado, testes técnicos obrigatórios que simulam cenários de risco e até um cadastro público onde esses sistemas têm de ser registrados para consulta de qualquer interessado. O tom é de “autorizar primeiro, operar depois”. Por outro lado, os Estados Unidos preferem deixar a inovação correr e só intervêm quando surge um prejuízo concreto. Se um algoritmo enganar o consumidor ou cometer algum tipo de discriminação, por exemplo, as agências federais entram em cena, processam a empresa e exigem reparação. Para quem pretende atuar nos dois mercados, é mais recomendável adotar o padrão europeu, que é mais rigoroso desde o início, mas mantém dossiês e relatórios de impacto prontos para entregar às autoridades americanas caso alguém questione o sistema depois que ele já estiver em funcionamento.
O Dr. Davis Alves afirma que a regulamentação chinesa integra uma forte intervenção estatal com requisitos técnicos específicos. Como essa fórmula opera na prática?
Dr. Bruno Vieira: Na China, a lógica que orienta a regulamentação de IA parte de uma preocupação essencialmente estatal que visa garantir a segurança nacional e manter o controle sobre o fluxo de informações. A partir de 2021, qualquer empresa que disponibilize algoritmos considerados “sensíveis”, capazes de influenciar a opinião pública ou afetar infraestruturas críticas, deve registrá-los em um banco oficial, disponibilizar partes relevantes do código para auditoria governamental e incorporar uma espécie de “botão de desligar” que permita às autoridades suspendem o serviço se enxergarem risco à ordem pública. Em tese, há um ponto de convergência com o Ocidente: responsabilizar o fornecedor pelo bom funcionamento da tecnologia. A diferença está no propósito final. Enquanto Europa e Estados Unidos concentram-se em proteger o indivíduo contra abusos do setor privado, a abordagem chinesa volta-se principalmente a resguardar o próprio Estado, garantindo que a IA opere em sintonia com os objetivos de segurança e estabilidade social definidos pelo governo.
Dr. Davis Alves: Quais aspectos exclusivos o PL 2338 introduz para o debate sobre inteligência artificial no Brasil?
O projeto de lei 2338/2023 adota a mesma classificação de riscos da Europa, porém inclui três elementos próprios: a utilização de ambientes de teste controlados para que empresas possam experimentar soluções de IA; a criação de um “Selo IA Responsável” para aqueles que adotam boas práticas; e a diminuição das exigências para companhias com faturamento anual de até R$ 16 milhões. Ressalta-se que o projeto ainda não define claramente quem será o responsável pelo cumprimento dessas normas, seja a ANPD – Autoridade Nacional de Proteção de Dados, o CGI – Comitê Gestor da Internet ou a criação de uma agência totalmente nova.
Dr. Davis Alves: Qual é a melhor estratégia para empresas que operam em vários países lidarem com as diferentes regras de IA?
Dr. Bruno Vieira: A estratégia mais segura pode ser resumida em três movimentos interligados. Inicialmente, utilize a Lei Europeia de IA como referência principal, pois ela estabelece os requisitos mais rigorosos disponíveis atualmente, de forma que, se o sistema já for desenvolvido em conformidade com essas normas, dificilmente estará abaixo do padrão em qualquer outro país. Em seguida, adapte o produto ao contexto local, revisando bancos de dados, traduções, declarações de impacto e políticas internas para refletir as particularidades legais, linguísticas e culturais de cada mercado onde a IA será oferecida, a fim de evitar erros de interpretação e multas. Por último, mantenha presença ativa em fóruns técnicos e laboratórios regulatórios (como a ISO/IEC, por exemplo).
O Dr. Davis Alves afirma que os Princípios de Hiroshima, lançados pelo G7 em 2023, podem se tornar a base comum necessária para harmonizar as normas sobre inteligência artificial.
O Dr. Bruno Vieira afirma que, apesar de não possuírem força de lei, os Princípios de Hiroshima atuam como um resumo de boas práticas já presentes em diversas propostas regulatórias, incluindo avaliação de riscos, transparência, supervisão humana e prestação de contas. O diferencial reside no fato de que este documento não se restringe a medir o perigo inerente ao modelo de IA, mas também considera a finalidade do seu uso. Esse critério de “risco mais intenção” pode servir como elo entre diferentes legislações, permitindo que países adotem exigências proporcionais ao contexto de aplicação, mesmo sem consenso em todos os detalhes técnicos.
Dr. Davis Alves: Para finalizar nossa conversa de hoje, qual a mensagem principal que o senhor deseja transmitir?
O Dr. Bruno Vieira afirma que a regulamentação da IA não implica em restringir a inovação, mas sim assegurar que o progresso tecnológico promova benefícios sem gerar consequências sociais não percebidas. Se o Brasil definir normas claras, incentivar a pesquisa e proteger os direitos dos cidadãos, desenvolverá um ambiente de confiança que beneficia usuários, empresas e o país.
Gostaria de se aprofundar no assunto, tem alguma dúvida, comentário ou quer compartilhar sua experiência neste tema? Escreva para mim no Instagram: @davisalvesphd.
Fonte por: Jovem Pan
Autor(a):
Lucas Almeida
Lucas Almeida é o alívio cômico do jornal, transformando o cotidiano em crônicas hilárias e cheias de ironia. Com uma vasta experiência em stand-up comedy e redação humorística, ele garante boas risadas em meio às notícias.