La course à l’armement entre pirates informatiques et spécialistes de la cybersécurité atteint un nouveau cap. Afin de prévenir l’exploitation malveillante des intelligences artificielles, les développeurs déploient désormais leurs outils de détection sous haute surveillance, réservant leur utilisation aux seules infrastructures vérifiées.
Selon les informations rapportées par Insider Paper, l’entreprise OpenAI a annoncé mardi la diffusion de son récent modèle de cybersécurité, GPT-5.4-Cyber. Ce système est exclusivement accessible aux échelons supérieurs des personnes et organisations membres du programme Trusted Access for Cyber (TAC). Cette structure rassemble actuellement des milliers de défenseurs individuels certifiés ainsi que des centaines d’équipes responsables de la protection des logiciels critiques, dont l’identité précise n’a pas été communiquée par la société.
Cette stratégie d’accès restreint fait suite à une démarche parallèle de son rival Anthropic. La semaine passée, dans le cadre d’une initiative baptisée Project Glasswing, l’entreprise a limité la distribution de son modèle Claude Mythos à exactement 40 acteurs majeurs du secteur technologique. Bien qu’il n’ait pas été spécifiquement entraîné pour ce domaine, Mythos a mis en évidence des failles de sécurité dans des logiciels largement distribués, certaines vulnérabilités étant restées indétectées pendant plusieurs décennies.
L’émergence de ces capacités d’analyse de code génère une mobilisation institutionnelle. Insider Paper révèle que les dirigeants des principales banques américaines se sont entretenus vendredi avec Scott Bessent, secrétaire au Trésor des États-Unis, et Jerome Powell, président de la Réserve fédérale. Les discussions ont porté sur les menaces potentielles que le système Mythos fait peser sur le secteur financier.
Afin de répondre aux besoins opérationnels des professionnels, GPT-5.4-Cyber a été paramétré pour être permissif face aux requêtes de sécurité. Les équipes de défense peuvent l’utiliser pour tester la résistance de leurs propres réseaux sans déclencher les blocages de sécurité intégrés aux versions destinées au grand public. Concernant le contrôle de la distribution, OpenAI a déclaré ne pas juger approprié de décider de manière centralisée qui obtient les moyens de se défendre, privilégiant le déploiement de systèmes d’identification automatisés pour intégrer le maximum d’utilisateurs légitimes.