Frase do dia

  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
  • “Não quero estar no mesmo saco que Figo, Mourinho ou Ronaldo”, Kika Nazareth
Search

O Departamento de Defesa dos Estados Unidos emitiu um ultimato à empresa de Inteligência Artificial Anthropic relativamente ao uso do seu modelo de linguagem em contextos militares. Segundo reportagens internacionais, o governo norte-americano estabeleceu um prazo para que a empresa aceite permitir que os seus sistemas sejam utilizados para “todos os usos legais” no âmbito de contratos com o Pentágono, sob pena de poder cancelar acordos já existentes e aplicar outras medidas.

O conflito centra-se nas restrições éticas impostas pela própria Anthropic ao seu modelo, conhecido como Claude. A empresa pretende impedir a utilização da tecnologia em sistemas de armas autónomas que tomem decisões letais sem supervisão humana e em programas de vigilância em larga escala contra civis. Estas limitações foram reafirmadas pela direção da companhia em reuniões com responsáveis do Departamento de Defesa, enquanto o governo defende que a tecnologia deve poder ser usada sem tais restrições sempre que a lei o permita.

Caso não haja entendimento, o Pentágono poderá cancelar contratos avaliados em centenas de milhões de dólares e até classificar a empresa como um potencial risco para a cadeia de abastecimento. Uma eventual designação dessa natureza poderia obrigar outros fornecedores de defesa a evitar ou declarar a utilização da tecnologia da Anthropic, reduzindo a sua presença em projetos militares. Também está em cima da mesa a possibilidade de recorrer a instrumentos legais como o Defense Production Act, embora tal medida seja considerada excecional.

Este impasse ocorre num contexto em que outras grandes empresas tecnológicas, como OpenAI, Google ou xAI, já reforçaram a cooperação com as autoridades norte-americanas na área da Inteligência Artificial aplicada à defesa. O caso evidencia o debate crescente sobre os limites éticos e legais da utilização de sistemas de IA em aplicações militares e o equilíbrio entre inovação tecnológica, interesses empresariais e exigências de segurança nacional.

Recomendado para si