La régulation des plateformes numériques en Europe franchit une nouvelle étape. Alors que le Digital Services Act (DSA) impose des règles strictes aux géants du web, la Commission européenne s’intéresse de près aux mécanismes internes du réseau social X. Au cœur de cette attention réglementaire : la gestion des risques liés aux outils de génération de contenu par intelligence artificielle.
L’étau se resserre autour des pratiques de modération sur la plateforme d’Elon Musk. La Commission européenne a officialisé, ce lundi, l’ouverture d’une enquête formelle ciblant spécifiquement le chatbot Grok et les systèmes de recommandation de X. Cette procédure s’inscrit dans le cadre de la législation sur les services numériques et vise à déterminer si l’entreprise respecte ses obligations de vigilance.
Selon les éléments communiqués par Anadolu, cette investigation ne part pas de zéro. Elle vient étendre une procédure déjà entamée en décembre 2023, qui examinait la conformité globale de X en matière de gestion des risques. Cette fois, Bruxelles cible un dysfonctionnement technologique précis : la capacité de l’outil Grok à générer et diffuser des contenus visuels problématiques au sein de l’Union européenne.
Une dérive vers des contenus explicites
Le point central de cette nouvelle enquête concerne la prolifération d’images sexualisées manipulées. Les autorités européennes s’inquiètent de l’utilisation de l’intelligence artificielle pour créer des représentations explicites de personnes sans leur consentement. Le communiqué de la Commission souligne que ces failles pourraient également faciliter la diffusion de matériels relatifs à des abus sexuels sur mineurs.
L’objectif des régulateurs est d’évaluer si l’entreprise a correctement « identifié et atténué les risques liés au déploiement des fonctionnalités de Grok sur X dans l’UE ». Pour Bruxelles, ces risques semblent s’être matérialisés, exposant potentiellement les citoyens européens à des préjudices graves.
La position de la direction de X
Cette procédure fait suite à une vague de critiques observée sur les réseaux sociaux, où des utilisateurs ont démontré la facilité avec laquelle il était possible d’inciter l’IA à contourner les filtres de sécurité pour produire des images illicites. Face à ces accusations, Elon Musk, dont la société xAI est à l’origine du développement de Grok, a tenu à clarifier la responsabilité des usagers.
Dans une déclaration faite le 3 janvier, le propriétaire de la plateforme a indiqué que les utilisateurs sollicitant la création de contenus illégaux seraient traités avec la même sévérité que s’ils avaient eux-mêmes téléchargé ces fichiers sur le site. Il reste désormais à la Commission européenne de déterminer si cette politique d’utilisation suffit à satisfaire aux exigences du DSA.