Trump bane Anthropic; OpenAI fecha acordo com o Pentágono

Em uma escalada dramática na disputa sobre o uso de Inteligência Artificial (IA) pelas forças armadas, o Presidente Trump ordenou que o governo dos EUA interrompa o uso da tecnologia da Anthropic. A ordem foi emitida após o impasse da empresa com o Pentágono sobre restrições no uso de suas ferramentas de IA para vigilância em massa e armas autônomas. Paralelamente, a OpenAI anunciou um acordo com o Departamento de Defesa para fornecer sua tecnologia para redes classificadas.

Imagem da notícia - BBC

Fonte: BBC

Desentendimento e Proibição

Trump expressou sua decisão através de uma postagem na Truth Social, criticando a Anthropic por tentar “forçar” o Departamento de Guerra a obedecer seus Termos de Serviço. Ele determinou que todas as agências federais cessem imediatamente o uso da tecnologia da empresa, com um período de transição de seis meses.

“Os lunáticos esquerdistas da Anthropic cometeram um ERRO DESASTROSO ao tentar DOMINAR o Departamento de Guerra e forçá-los a obedecer seus Termos de Serviço em vez de nossa Constituição,” escreveu Trump.

Simultaneamente, o Secretário de Defesa, Pete Hegseth, designou a Anthropic como um risco para a cadeia de suprimentos da segurança nacional, proibindo empresas que trabalham com os militares dos EUA de manterem qualquer atividade comercial com a Anthropic. A empresa contestou a designação, afirmando que ela é “juridicamente insustentável e estabelece um precedente perigoso para qualquer empresa americana que negocie com o governo.”

O Ponto de Discórdia: Vigilância e Armas Autônomas

A controvérsia centraliza-se nas preocupações da Anthropic sobre o uso de suas ferramentas de IA, como o Claude, em “vigilância em massa” e “armas totalmente autônomas.” A empresa alegou ter tentado negociar de boa fé com o Pentágono, apoiando todos os usos legais da IA para segurança nacional, exceto as duas exceções em disputa.

A Anthropic argumenta que os modelos de IA atuais não são confiáveis o suficiente para serem usados em armas autônomas, representando um risco para combatentes e civis americanos. Além disso, a empresa considera a vigilância doméstica em massa uma violação de direitos fundamentais.

OpenAI Entra em Cena

Pouco após o anúncio da proibição, a OpenAI revelou um acordo com o Departamento de Defesa para fornecer sua tecnologia para redes classificadas. O CEO da OpenAI, Sam Altman, manifestou apoio à posição da Anthropic, afirmando que sua empresa compartilha as mesmas “linhas vermelhas” em relação ao uso militar da IA.

Altman especificou que os contratos da OpenAI com os militares também rejeitariam usos ilegais ou inadequados para implantações em nuvem, como vigilância doméstica e armas ofensivas autônomas. Ele confirmou que a OpenAI chegou a um acordo com o Departamento de Guerra para usar seus modelos de IA em redes de nuvem classificadas.

O Impacto e o Futuro

A proibição do governo ocorre em um momento crucial para a Anthropic, que planeja uma oferta pública inicial (IPO) este ano. Embora o contrato com o Pentágono represente uma pequena parcela de sua receita total, o atrito com o governo pode afetar a confiança dos investidores e outros acordos de licenciamento.

O CEO da Anthropic, Dario Amodei, ressaltou que a avaliação e a receita da empresa cresceram desde que ela se posicionou contra as demandas do governo Trump sobre o uso da IA. A disputa levanta questões importantes sobre o controle das empresas de IA sobre o uso de sua tecnologia pelo governo.

Jerry McGinn, do Centro de Estudos Estratégicos e Internacionais, observou que essa situação é incomum no mundo da contratação do Pentágono. Normalmente, os contratados não têm a prerrogativa de ditar como seus produtos e serviços podem ser usados, mas a IA é uma tecnologia nova e amplamente não testada. A batalha pública entre a Anthropic e o Pentágono reflete a natureza complexa da IA.

O que está em jogo?

A decisão de Trump e a subsequente ação do Pentágono colocam em xeque o futuro da colaboração entre empresas de IA e o governo. A postura da Anthropic, apoiada por figuras importantes como Sam Altman, destaca a crescente preocupação com o uso ético e responsável da inteligência artificial, especialmente em contextos militares e de segurança nacional. Resta saber como esse impasse influenciará as políticas e diretrizes futuras sobre o uso de IA pelo governo.

Em meio a essas tensões, permanece a questão: Até que ponto as empresas de tecnologia devem ter o direito de restringir o uso de suas inovações por parte das autoridades governamentais, mesmo em nome da segurança nacional?

Postagem Anterior Próxima Postagem