Executivos de destaque do Vale do Silício voltaram a acusar organizações que defendem segurança em inteligência artificial de agirem movidas por interesses próprios. Em publicações na rede X nesta semana, David Sacks, responsável por políticas de IA e criptoativos na Casa Branca, e Jason Kwon, diretor-estratégico da OpenAI, sugeriram que parte dessas entidades estaria servindo a bilionários ou tentando obter vantagens regulatórias.
Representantes de organizações sem fins lucrativos ouvidos pelo TechCrunch afirmam que as declarações buscam intimidar críticos, movimento semelhante ao de 2024, quando rumores propagados por fundos de investimento diziam que o projeto de lei californiano SB 1047 poderia levar fundadores de startups à prisão. Embora o Brookings Institution tenha classificado a alegação como falsa, o governador Gavin Newsom vetou a proposta.
Acusações contra a Anthropic
Na terça-feira (14), Sacks afirmou que a Anthropic — único grande laboratório que apoiou o projeto SB 53, recentemente sancionado e que impõe relatórios de segurança a empresas de IA de grande porte — promove “alarmismo” para favorecer uma captura regulatória e dificultar a vida de startups menores. O comentário foi resposta a um ensaio do cofundador da Anthropic, Jack Clark, apresentado semanas antes na conferência Curve, em Berkeley, no qual ele expressou receios sobre riscos da tecnologia.
Subpoenas enviadas pela OpenAI
Também nesta semana, Jason Kwon explicou por que a OpenAI encaminhou intimações judiciais (subpoenas) a sete ONGs que criticaram sua reorganização societária, entre elas a Encode. Segundo Kwon, após Elon Musk processar a empresa alegando desvio de sua missão original, chamou atenção a oposição simultânea dessas entidades. Os documentos exigem comunicações das ONGs com Musk, com o CEO da Meta, Mark Zuckerberg, e sobre o apoio ao SB 53, informou a NBC News.
Joshua Achiam, chefe de alinhamento de missão da OpenAI, declarou na rede X que a medida “não parece ótima”, sugerindo divergências internas entre o departamento de políticas públicas e a equipe de pesquisa da empresa.
Reações do setor
Brendan Steinhauser, diretor-executivo da Alliance for Secure AI — que não recebeu intimação —, classificou a iniciativa como tentativa de silenciar críticos. Ele negou que haja coordenação conduzida por Musk e ressaltou que parte da comunidade de segurança é, inclusive, crítica às práticas da xAI, empresa de IA do bilionário.
Sriram Krishnan, conselheiro sênior da Casa Branca para IA, acrescentou à discussão um post chamando os defensores de segurança de “desconectados” da realidade de usuários e empresas que implementam a tecnologia no dia a dia.
Opinião pública dividida
Pesquisas recentes do Pew Research Center apontam que cerca de metade dos norte-americanos se mostra mais preocupada do que empolgada com a IA. Outro estudo indica que perda de empregos e deepfakes estão entre os receios mais citados, enquanto riscos catastróficos — foco principal de muitos ativistas — ocupam posição secundária.
Em meio ao avanço dos investimentos em IA e ao receio de regulamentação excessiva, o embate entre grandes empresas e organizações de segurança ganha força às vésperas de 2026.
Palavras-chave: IA, segurança em IA, OpenAI, David Sacks, Jason Kwon, Anthropic, SB 53, Elon Musk, regulamentação, Vale do Silício
Com informações de TechCrunch





