États-Unis : le Pentagone confie son réseau classifié à ce géant de l’IA après le retrait de son rival

Le département américain de la Défense a acté un changement majeur dans la gestion de son infrastructure technologique. Suite à une rupture brutale avec son précédent fournisseur, ordonnée au sommet de l’État, le Pentagone s’est tourné vers un nouvel acteur pour développer son réseau classifié.

Selon les informations rapportées par Al Jazeera, Sam Altman, directeur général d’OpenAI, a confirmé la conclusion d’un accord avec l’armée américaine. Dans une déclaration publiée tard vendredi sur le réseau social X, le dirigeant a justifié ce partenariat en affirmant que le Pentagone avait démontré un « profond respect pour la sécurité ». L’accord stipule que la technologie d’OpenAI ne sera pas déployée pour la surveillance de masse sur le territoire national ni pour le développement de systèmes d’armes autonomes, garantissant que le recours à la force restera sous responsabilité humaine.

Cette annonce intervient quelques heures après une directive de Donald Trump interdisant aux agences fédérales l’utilisation des services d’Anthropic, l’ancien prestataire. Le président américain, qualifiant les dirigeants de l’entreprise d’« extrémistes de gauche » sur sa plateforme Truth Social, a accordé un délai de six mois au Pentagone pour retirer cette technologie de ses plateformes militaires où elle était déjà intégrée.

Le retrait d’Anthropic fait suite aux réserves éthiques soulevées par son directeur général, Dario Amodei. L’entreprise avait refusé de lever les garde-fous empêchant l’utilisation de son intelligence artificielle pour la surveillance de masse et la programmation d’armes capables de frapper sans intervention humaine. Par le passé, le logiciel IA Claude d’Anthropic avait été utilisé par l’armée américaine en janvier, lors de l’enlèvement du président vénézuélien Nicolas Maduro.

L’intégration croissante de l’intelligence artificielle dans les opérations militaires suscite l’inquiétude des défenseurs des droits humains. Ces derniers pointent notamment l’utilisation de systèmes d’IA tels que « Lavender » ou « The Gospel » par les forces israéliennes dans le cadre de la guerre à Gaza, employés pour traiter des données de surveillance de masse et générer des listes de cibles humaines.

Votre avis sera publié et visible par des milliers de lecteurs. Veuillez l’exprimer dans un langage respectueux.

Laisser un commentaire