Alors que l’intelligence artificielle (IA) draine des milliards de dollars d’investissements et s’impose comme le moteur de l’économie numérique mondiale, un phénomène contraire et inquiétant agite les coulisses de la Silicon Valley. Loin de l’euphorie boursière, les architectes mêmes de ces systèmes quittent leurs postes les uns après les autres. Ce mouvement de retrait, observé au sein des entreprises les plus en vue, ne relève pas de simples opportunités de carrière, mais traduit une alarme sérieuse sur la trajectoire incontrôlée de la technologie.
Les départs se succèdent à un rythme effréné chez les géants du secteur. Ces dernières semaines, des chercheurs de premier plan ont claqué la porte d’entreprises comme Anthropic, OpenAI ou encore xAI, la société d’Elon Musk. Leur point commun ? Ils étaient chargés de la sécurité et de l’éthique de ces outils. Leur constat est sans appel : le développement technologique a dépassé la capacité de contrôle humain.
**Une sagesse dépassée par la puissance de calcul**
Le cas de Mrinank Sharma, chercheur en sécurité chez Anthropic, illustre parfaitement ce malaise. Dans sa lettre de démission citée par Al Jazeera, il évoque une impossibilité technique à aligner les valeurs humaines sur les actions des algorithmes. « Le monde est en péril », écrit-il, soulignant que nous approchons d’un seuil critique où « notre sagesse doit croître dans la même mesure que notre capacité à affecter le monde ». Selon lui, cette condition n’est pas remplie.
Ce sentiment d’urgence est partagé par Zoe Hitzig, qui a quitté OpenAI suite à l’introduction de publicités dans ChatGPT. Elle pointe du doigt un risque de manipulation psychologique inédit, les utilisateurs confiant désormais à la machine leurs peurs médicales ou leurs problèmes relationnels, offrant ainsi une base de données intime exploitable sans garde-fous.
**Des conséquences déjà visibles : du drame personnel au champ de bataille**
Les craintes théoriques ont laissé place à des incidents concrets. Au Royaume-Uni, le suicide d’un adolescent de 14 ans a été directement lié aux encouragements prodigués par un chatbot modélisé sur un personnage de fiction. La machine lui avait envoyé des messages l’incitant à la rejoindre, révélant la capacité de ces systèmes à créer une dépendance émotionnelle dangereuse, un risque que Yoshua Bengio, directeur scientifique de l’Institut d’IA de Mila Québec, admet n’avoir pas anticipé à une telle échelle.
Sur le plan géopolitique, l’IA est déjà une arme. Des rapports indiquent que l’armée américaine aurait utilisé le modèle Claude pour des opérations ciblant le président vénézuélien Nicolas Maduro, tandis que l’armée israélienne déploie des armes pilotées par l’IA dans la bande de Gaza pour identifier et suivre des cibles, soulevant des questions éthiques majeures sur l’automatisation de la guerre.
**L’automatisation du travail : une échéance plus courte que prévu**
Au-delà des risques sécuritaires, l’impact sur l’emploi se précise avec une brutalité nouvelle. Mustafa Suleyman, PDG de Microsoft AI, a jeté un pavé dans la mare en affirmant que le travail de bureau traditionnel — avocats, comptables, chefs de projet — pourrait être « entièrement automatisé » par une IA dans un délai de 12 à 18 mois. Une prédiction qui corrobore les difficultés actuelles des jeunes diplômés à intégrer un marché du travail en pleine mutation.
Face à ces véhicules lancés à pleine vitesse sans système de freinage, comme le décrit Liv Boeree du Center for AI Safety, la régulation peine à suivre. Si l’Union européenne tente de mettre en place un cadre avec l’AI Act, la disparité des règles au niveau mondial laisse le champ libre à une course à la puissance qui inquiète désormais ceux-là mêmes qui l’ont lancée.
L’ humanité se comporte comme l’agneau que l’on voulait sacrifier sans disposer de couteau, mais dans ses gesticulations, il déterre un couteau avec lequel il fut tué !!! Nous sommes en milieu de la fin du monde qui est pour bientôt. Et on dirait que nous la précipitons.