Italie : L’autorité de régulation enquête sur DeepSeek AI pour usage de données personnelles
AA / Rome / Baris Seckin et Mucahithan Avcioglu
Inquiète des risques potentiels pour les données personnelles de millions de citoyens, l’autorité de régulation italienne a demandé des explications à la société chinoise d’intelligence artificielle, DeepSeek. Selon l’autorité, aussi connue sous le nom de Garante, ces inquiétudes concernent l’utilisation des données personnelles collectées par le chatbot de l’entreprise.
Dans un communiqué publié mardi, le Garante a exigé de DeepSeek AI des éclaircissements relatifs aux sources de leurs données collectées. L’objectif principal est de vérifier si ces informations sont hébergées sur des serveurs situés en Chine. Cet aspect est crucial pour déterminer la légalité et la sécurité de ces pratiques de collecte.
L’autorité italienne a octroyé un délai de 20 jours à DeepSeek AI ainsi qu’à ses entreprises affiliées pour expliquer la provenance des données recueillies. Cette approche s’inscrit dans une démarche de protection renforcée des données personnelles, un enjeu de taille à l’ère numérique.
Ce n’est pas la première fois que l’Italie agit fermement en matière de protection des données. En mars 2023, une enquête avait été lancée contre l’application ChatGPT, développée par OpenAI aux États-Unis. L’application avait été suspectée de ne pas respecter les normes de collecte des données, entraînant temporairement son blocage en Italie.
Après que OpenAI se soit engagé à respecter la vie privée de ses utilisateurs, la suspension a été levée en avril 2023. Comme mentionné dans le texte d’origine de nos confrères de l’agence Anadolu, la priorité affichée par OpenAI a été de protéger les droits des utilisateurs de ChatGPT.
*Information traduite de l’Anglais par Adama Bamba, retracée à sa source sur le site de nos confrères de l’agence Anadolu.