Existe uma cena no filme O Poderoso Chefão que todo mundo lembra: Michael Corleone diz que quer manter as mãos limpas, que o negócio da família vai se tornar legítimo. Enquanto isso, os corpos vão se empilhando.
Pois é. A OpenAI acabou de fechar um acordo com o Pentágono — o Departamento de Defesa dos Estados Unidos — e, numa coincidência que seria cômica se não fosse sinistra, o líder da divisão de hardware da empresa simplesmente pediu as contas.
Vamos mastigar isso juntos.
O que aconteceu de verdade
A OpenAI, aquela mesma empresa que nasceu como uma organização sem fins lucrativos com a missão declarada de "garantir que a inteligência artificial beneficie toda a humanidade", vem se transformando numa máquina de guerra corporativa nos últimos meses. Primeiro veio a conversão para empresa com fins lucrativos. Depois os bilhões da Microsoft. Agora, um contrato direto com o Pentágono.
E no meio dessa transição, o cara responsável por construir o hardware que dá vida a tudo isso — o coração físico da operação, os chips, os servidores, a infraestrutura que faz o ChatGPT funcionar — simplesmente levantou da cadeira e foi embora.
Porra, me diz que isso não é um sinal.
O elefante na sala que ninguém quer ver
O mercado financeiro mainstream vai tratar essa saída como "decisões pessoais" ou "busca de novos desafios". A narrativa oficial vai ser polida, empacotada em comunicado de imprensa com linguagem de RH.
Mas qualquer pessoa que tenha lido duas páginas de Nassim Taleb sabe que as ações dizem mais que as palavras. Quando alguém com skin in the game — alguém que está lá dentro, que sabe o que está sendo construído, que vê os bastidores — decide sair logo após um acordo com a máquina militar mais poderosa do planeta, isso não é coincidência. É informação.
Lembra do Ilya Sutskever? O cara tentou dar um golpe interno na OpenAI, foi defenestrado, e hoje trabalha em outra empresa. Lembra do time inteiro de segurança de IA que debandou? Cada saída dessas é uma peça do quebra-cabeça. E o desenho que vai se formando não é bonito.
IA militar não é ficção científica — é o próximo ciclo de negócios
Vamos ser práticos aqui, porque no fim do dia, quem lê isso quer entender pra onde o dinheiro vai.
A militarização da inteligência artificial é um dos maiores ciclos de investimento que vão marcar a próxima década. Palantir já surfou essa onda — as ações multiplicaram várias vezes. A Anduril, fundada por Palmer Luckey (sim, o cara do Oculus), virou um monstro de defesa tech avaliado em dezenas de bilhões. E agora a OpenAI entra nessa arena.
Isso significa duas coisas:
Primeiro, o dinheiro de defesa é o dinheiro mais garantido que existe no planeta. O orçamento militar americano não encolhe. Não importa se o presidente é republicano ou democrata. O Pentágono sempre paga. Então, do ponto de vista puramente financeiro, a OpenAI está fazendo um movimento racional e potencialmente muito lucrativo.
Segundo, existe um custo reputacional e de talento. As melhores mentes de IA do mundo — os engenheiros, pesquisadores, os caras que realmente fazem a mágica acontecer — muitos deles entraram na OpenAI por causa da missão original. "Beneficiar a humanidade." Construir armas autônomas para o maior exército do mundo não estava exatamente no slide de onboarding.
E quando você perde talento desse calibre, não é como perder um analista júnior. É como o Golden State Warriors perder o Curry. Muda tudo.
O que isso significa pra quem investe
Se você tem exposição a empresas de IA — direta ou indiretamente via Microsoft, Nvidia, ou qualquer ETF de tecnologia — precisa entender que o setor está entrando numa fase completamente diferente. A fase "fofa" da IA, dos chatbots e geradores de imagem, está dando lugar à fase pesada: contratos governamentais, aplicações militares, vigilância em escala.
Isso não é necessariamente ruim para o seu portfólio. Pode ser excelente, na verdade. Lockheed Martin e Raytheon fizeram muita gente rica.
Mas saiba onde você está colocando seu dinheiro. Tenha clareza. Não se esconda atrás de narrativas de "democratização do conhecimento" quando o produto final pode ser um drone autônomo.
Como diria o Walter White: "Eu não estou em perigo. Eu sou o perigo."
A pergunta é: a OpenAI sabe disso — ou ainda está fingindo que é o professor de química?