Modelos regulatórios em disputa: Há hoje um conflito de filosofias na regulação de IA. A UE vem liderando com uma legislação abrangente e baseada em risco, priorizando direitos fundamentais e precaução. Seu AI Act (Regulamento de IA), em vigor desde 2024, classifica sistemas de IA em quatro níveis de risco (inaceitável, alto, limitado e mínimo) e impõe requisitos proporcionais a cada categoria[2]. Aplicações de risco “inaceitável” – por exemplo, score social ao estilo do crédito social (atribuir pontuações gerais a cidadãos) – são proibidas, enquanto sistemas de alto risco (que afetam segurança ou direitos) estão sujeitos a exigências estritas de avaliação e conformidade antes e após a entrada no mercado[3][4]. Já os EUA, até o início de 2026, não adotaram uma lei federal abrangente. Em vez disso, optam por uma abordagem setorial e orientada à inovação, combinando ordens executivas, guias de agências e leis estaduais[5]. O foco americano está em estimular a liderança tecnológica e a competitividade, com menor ênfase em restrições ex ante – conforme evidenciado pelo Plano de Ação de IA dos EUA de 2025, que propõe revisar ou revogar regulações que “injustificadamente dificultem” o desenvolvimento de IA[6][7]. O Reino Unido, por sua vez, adota uma abordagem de autorregulação guiada por princípios (“pró-inovação”), empoderando reguladores setoriais a aplicar cinco princípios básicos (segurança, transparência, justiça, accountability e contestabilidade) sem criar uma lei única de IA neste momento. A China segue um modelo centralizado e vertical, com o Estado ditando regras específicas por tipo de aplicação – por exemplo, regulamentos para algoritmos de recomendação, conteúdo “deepfake” e IA generativa – sempre alinhados aos objetivos de estabilidade social e controle de informação[8]. Em suma, enquanto a UE formaliza obrigações amplas e exaustivas, os EUA privilegiam flexibilidade e liderança em P\&D, e a China impõe controle estatal rigoroso sobre o ecossistema de IA[9][10].
