Un chien de garde italien va enquêter sur d’autres systèmes d’IA après une courte interdiction de chatGPT

L’autorité italienne de protection des données Garante prévoit d’enquêter sur d’autres plates-formes d’intelligence artificielle et d’embaucher des experts en IA, a déclaré un haut responsable, qui intensifie ses enquêtes sur cette puissante technologie après l’interdiction temporaire de ChatGPT en mars.

Garante est l’une des 31 autorités nationales de protection des données les plus proactives qui supervisent le régime européen de protection de la vie privée connu sous le nom de Règlement général sur la protection des données (RGPD).

L’agence a été la première à interdire la société de chatbot AI Replika, le fabricant de logiciels de reconnaissance faciale Clearview AI et à restreindre TikTok en Europe.

En mars, il a temporairement interdit le bot ChatGPT d’OpenAI, soutenu par Microsoft Corp., et a lancé une enquête sur la violation présumée de la vie privée de l’application.

« Nous prévoyons de lancer une vaste enquête sur les applications d’IA génératives et d’apprentissage automatique disponibles en ligne, car nous voulons comprendre si ces nouveaux outils résolvent les problèmes liés à la protection des données et au respect de la vie privée, et nous en étudierons de nouveaux le cas échéant. commencer », a déclaré Agostino Ghiglia, membre du conseil d’administration de Garante.

Le succès de ChatGPT a incité les poids lourds de la technologie, d’Alphabet à Meta, à promouvoir leurs propres versions, et les législateurs et les gouvernements du monde entier débattent de nouvelles lois qui pourraient mettre des années à entrer en vigueur.

« Nous recherchons trois conseillers en IA car nous sommes conscients que les outils d’IA évoluent très rapidement et nous avons besoin d’experts ayant une formation technique pour nous aider dans nos activités de protection des données », a déclaré Ghiglia.

Cette décision est le dernier exemple de la façon dont certains régulateurs s’appuient sur les lois existantes pour contrôler une technologie qui pourrait changer le fonctionnement des sociétés et des entreprises.

Le conseil d’administration de Garante, composé de quatre membres, est composé d’avocats. Ghiglia a déclaré que l’autorité comptait 144 employés, bien moins que ses homologues européens en France, en Espagne et en Grande-Bretagne. La plupart d’entre eux ont une formation juridique, dit Ghiglia.

Dans son action contre ChaTGPT, Garante a fait usage des dispositions du RGPD, notamment celles qui protègent les enfants mineurs et donnent aux particuliers le droit de demander l’annulation et de s’opposer à l’utilisation de leurs données personnelles.

Après que Garante a pris des mesures, le créateur de ChatGPT, OpenAI, a apporté des modifications à son chatbot pour revenir à la conformité.

« Les membres du conseil d’administration de Garante prennent souvent conscience des violations potentielles de la vie privée parce que nous enquêtons simplement sur les outils et applications numériques dès qu’ils deviennent disponibles », a déclaré Ghiglia.

« Nous avons enquêté sur ChatGPT et avons réalisé qu’il n’était pas conforme aux règles de confidentialité des données de l’UE. »

Il faudra des années avant qu’une nouvelle législation sur l’IA n’entre en vigueur.

« C’est pourquoi nous avons décidé d’agir rapidement avec ChatGPT », a déclaré Ghiglia.

Cadice Lyon

"Fanatique des médias sociaux. Accro à la télévision. Évangéliste du Web. Fier érudit au bacon. Ninja du café. Organisateur professionnel."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *