Pedro Capello

A recente revogação, pelo governo norte-americano, de um decreto do ex-presidente Joe Biden, que visava garantir o uso seguro, protegido e confiável da IA nos EUA, representa uma mudança substancial na política norte-americana, ao extinguir, em nível federal, o arcabouço regulatório que Biden havia implementado para coordenar o setor de IA. Na prática, as empresas que atuam com IA podem enfrentar, agora, um cenário de incerteza regulatória, tendo em vista a possibilidade de surgirem padrões díspares tanto em âmbito estadual quanto internacional.
Sem um direcionamento federal unificado, diferentes estados e órgãos reguladores estrangeiros poderão estabelecer exigências diversas, potencializando a complexidade do compliance para organizações que desenvolvem e aplicam IA. Além disso, a falta de diretrizes uniformes pode acarretar lacunas na governança de dados, aumentando o potencial de vieses, falhas de segurança cibernética e utilização indevida de informações sensíveis.
Não obstante, empresas que adotarem padrões internos mais elevados de ética e segurança de dados, ou aquelas sediadas em países como o Brasil, que já possuem ou estão implementando legislações abrangentes para regulamentar o uso e o desenvolvimento de sistemas de IA, podem enfrentar desvantagens competitivas em relação àquelas que seguirem critérios menos rigorosos.
No âmbito nacional, em 10 de dezembro de 2024, o Congresso Nacional aprovou, no Brasil, o PL 2338/23 (“PL”), que estabelece normas gerais para o desenvolvimento e o uso ético e responsável da IA. Em contraste com a recente revogação da ordem executiva de Joe Biden nos EUA, essa legislação reforça a centralidade da pessoa humana e a proteção de direitos fundamentais como pilares de governança, além de introduzir a figura do Sistema Nacional de Regulação e Governança de Inteligência Artificial (“SIA”).
O PL tem como objetivo estabelecer diretrizes para a implementação de sistemas de IA seguros, confiáveis e alinhados ao respeito à privacidade, à inclusão e à não discriminação, além de prever a classificação de sistemas de alto risco e medidas como avaliações de impacto algorítmico e transparência nos processos decisórios automatizados, especialmente naqueles empregados no funcionamento de infraestruturas críticas, como controle de trânsito e redes de abastecimento de água e eletricidade.
Num cenário de rápidas transformações globais e de inovações disruptiva,s já evidenciadas nos últimos anos com a própria disseminação de ferramentas de IA, a decisão do novo governo dos Estados Unidos e a recente aprovação do PL no Brasil revelam caminhos contrastantes na abordagem regulatória da tecnologia. Enquanto o Brasil busca estabelecer um arcabouço sólido que equilibre inovação tecnológica e proteção de direitos fundamentais, a revogação norte-americana reabre o debate sobre a relação entre liberdade regulatória e os riscos éticos e sociais associados ao desenvolvimento de IA.
Esses movimentos ressaltam a importância de se refletir sobre as prioridades que cada país define em relação à inteligência artificial: como promover avanços tecnológicos sem comprometer valores éticos e democráticos? A resposta a essa pergunta moldará o impacto da IA em nossas sociedades e os desafios que teremos de enfrentar no futuro.
Pedro Capello é advogado no DSA Advogados – Donelli, Nicolai e Zenid Advogados







