Tem uma cena no filme O Poderoso Chefão em que Michael Corleone diz: "Não é pessoal, é negócio." Porra, é sempre pessoal quando envolve armas, dinheiro e consciência.

Caitlin Kalinowski, que liderava a divisão de robótica da OpenAI, pediu demissão. O motivo? O acordo da empresa com o Pentágono. Simples assim. A mulher olhou pro contrato militar, olhou pro espelho e decidiu que não dava pra ficar.

E antes que algum guru do LinkedIn venha falar que "ela jogou a carreira fora", presta atenção: isso se chama skin in the game. Nassim Taleb explicou bonito — quem não está disposto a pagar o preço pelas suas convicções não tem convicção nenhuma. Tem marketing pessoal.

O Acordo que Ninguém Quer Discutir Direito

A OpenAI, aquela mesma empresa que nasceu como organização sem fins lucrativos "para o benefício da humanidade", está cada vez mais parecida com qualquer outra gigante de tecnologia que fareja dinheiro governamental como cachorro fareja osso.

O acordo com o Pentágono não é exatamente novidade no Vale do Silício. O Google já passou por isso com o Projeto Maven em 2018 — quando funcionários se revoltaram contra o uso de IA em drones militares e a empresa recuou (ou pelo menos fingiu recuar). A Microsoft abraçou contratos com o Exército sem pestanejar. A Amazon fornece infraestrutura de nuvem pro aparato de segurança americano como quem vende café no drive-thru.

Mas a OpenAI era diferente. Pelo menos era o que vendiam pra gente.

Sam Altman construiu uma narrativa de que a empresa existia pra garantir que a inteligência artificial fosse desenvolvida de forma "segura e benéfica". Segura e benéfica. Anota essa frase. Agora coloca ela do lado de um contrato com o Departamento de Defesa dos Estados Unidos e me diz se não sente o cheiro de contradição.

A Hipocrisia Tem Preço — e É Alto

Olha, eu não sou ingênuo. Sou pro-mercado. Entendo que empresas precisam de receita, que contratos governamentais são gordos e que o mundo não é o jardim do Éden. Guerra existe. Defesa nacional existe. Tecnologia militar existe desde que o primeiro ser humano amarrou uma pedra num pedaço de pau.

O problema não é o contrato em si. O problema é a mentira.

Você não pode se vender como o salvador ético da inteligência artificial e depois assinar embaixo de um acordo militar sem ao menos ter a decência de explicar pro seu time — e pro público — como isso se encaixa na sua missão original.

A saída de Kalinowski é um sinal. E sinais importam mais que press releases bonitinhos.

Quando gente sênior, gente que está construindo o produto de verdade, começa a bater a porta e ir embora, isso diz mais sobre o estado interno de uma empresa do que qualquer relatório trimestral. Lembra do êxodo de pesquisadores do Google Brain? Lembra de quando a Anthropic nasceu justamente porque um bando de gente da OpenAI não aguentou mais a direção que a empresa estava tomando?

O Padrão Se Repete

É sempre o mesmo filme, só muda o elenco:

  1. Empresa nasce com discurso idealista
  2. Empresa cresce e precisa de dinheiro de verdade
  3. Empresa faz acordos que contradizem o discurso original
  4. Gente com princípio sai
  5. Empresa contrata gente que não se importa
  6. Discurso vira casca vazia

A OpenAI já está no passo 4. Talvez no 5.

E isso deveria importar pra você, investidor, empreendedor ou simplesmente cidadão que usa ChatGPT todo dia. Porque a empresa que está moldando como a inteligência artificial vai funcionar no planeta está tomando decisões que afetam muito mais que o preço de uma ação.

A Pergunta Que Fica

Kalinowski colocou a pele dela no jogo. Abriu mão de um cargo de liderança numa das empresas mais quentes do planeta porque o preço moral ficou alto demais.

E você? Se a empresa onde você trabalha fizesse algo que contradiz tudo que você acredita, você teria a coragem de levantar e sair — ou ficaria quieto contando os dias até o próximo bônus?

Não responde pra mim. Responde pra você mesmo. Em silêncio. Porque essa resposta diz tudo sobre quem você é de verdade.