


A Califórnia aprovou a primeira lei estadual dos Estados Unidos voltada exclusivamente para a transparência e segurança no desenvolvimento de inteligência artificial. Sancionada pelo governador Gavin Newsom em 29 de setembro de 2025, a Transparency in Frontier Artificial Intelligence Act (SB 53) estabelece regras inéditas para empresas que desenvolvem modelos de IA de grande porte — os chamados frontier models, treinados com volumes de computação superiores a 10²⁶ operações.
A nova lei exige que grandes desenvolvedores (com faturamento superior a US$ 500 milhões) publiquem um framework público de segurança, detalhando práticas de governança, padrões técnicos adotados, avaliação e mitigação de riscos catastróficos, medidas de cibersegurança para proteção dos pesos dos modelos e auditorias de terceiros. Além disso, impõe a publicação de relatórios de transparência a cada novo lançamento ou modificação substancial de modelo, bem como notificações obrigatórias de incidentes críticos de segurança — em até 15 dias, ou 24 horas em casos de risco iminente à vida.
A lei também cria proteções para denunciantes (whistleblowers) e um consórcio público de computação, chamado CalCompute, que apoiará pesquisas e inovação em IA de forma segura e ética. As regras começam a entrar em vigor em 1º de janeiro de 2026.
Especialistas apontam que a SB 53 pode servir de modelo regulatório nacional, já que ainda não existe uma legislação federal de IA nos EUA. A comparação com outros marcos internacionais revela abordagens distintas: enquanto a União Europeia avança com o AI Act, que regula toda a cadeia de valor da IA com base em níveis de risco, o Brasil ainda opera principalmente via LGPD e o PL 2338/2023, que está em tramitação no Congresso.
Com esse movimento, a Califórnia se posiciona como laboratório regulatório para o restante dos EUA — e possivelmente para outros países — ao priorizar transparência, segurança e responsabilidade no ecossistema de IA avançada.