ChatGPT temporairement bloqué en Italie
Le 31 mars dernier, la CNIL italienne a pris la décision de bloquer ChatGPT à titre temporaire en raison d'une violation présumée de la législation européenne. D'autres pays de la zone pourraient donc procéder à de semblables mesures.
Le vendredi 31 mars 2023, l’autorité italienne de protection des données a décidé de bloquer, à titre temporaire, l’intelligence artificielle (IA) ChatGPT. En outre, comme indiqué sur son site internet, la version italienne de la CNIL a « ordonné, avec effet immédiat, la restriction provisoire du traitement des données des utilisateurs italiens à l’encontre d’OpenAI, la société américaine qui a développé et gère la plateforme. » Une enquête a également été ouverte.
ChatGPT bloqué en Italie : une violation présumée de la législation européenne
Quel est le problème invoqué ici ? 01net écrit qu’il est question d’une supposée violation de la législation de l’Union européenne (UE) en ce qui concerne la protection des données, des dispositions prises dans le cadre du RGPD (règlement européen sur la protection des données) de 2016.
Pas de vérification de l’âge des utilisateurs
Dans le détail des reproches formulés à l’encontre de ChatGPT et d’OpenAI, l’absence de toute vérification d’âge des utilisateurs de l’IT. En conséquence, les enfants sont susceptibles de « recevoir des réponses absolument inappropriées à leur âge et à leur sensibilité, même si le service est censé s’adresser à des utilisateurs âgés de plus de 13 ans selon les conditions d’utilisation d’OpenAI. »
Une fuite de données non rapportée aux autorités
Alors que le RGPD impose de signaler très rapidement aux autorités toute fuite de données, OpenAI ne s’est pas exécuté suite à un bogue de ce genre survenu le 20 mars dernier. L’entreprise a eu beau publier un communiqué dans laquelle elle a présenté ses excuses, il est ensuite apparu que des données bancaires auraient potentiellement été compromises. Pour finir, OpenAI est également en faute, selon les autorités italiennes, pour n’avoir pas fait savoir à ses utilisateurs que leurs données seraient réutilisées pour entraîner d’autres modèles d’IA.