Les régulateurs sont selon Reuter inspirés par leurs collègues italiens, qui avaient précédemment introduit une telle interdiction. Bien qu’il n’existe pas encore de loi européenne restreignant ces intelligences artificielles, le chien de garde italien estime que le logiciel viole la loi générale sur la confidentialité GDPR.
ChatGPT a analysé de grandes quantités de données pour répondre aux questions posées. Par exemple, le logiciel a appris à répondre à des questions spécifiques, ou il peut écrire une courte histoire sur commande sur un sujet que vous lui avez donné.
Le régulateur en Italie pense que la loi sur la confidentialité a été violée en entraînant l’IA avec autant de données. Les propriétaires originaux de ces données n’ont pas donné leur autorisation.
Préoccupations concernant l’IA
Avec cette mesure, l’Italie répond à des préoccupations plus larges concernant l’intelligence artificielle. Les artistes ont récemment été critiques, voyant des logiciels entraînés en analysant puis en imitant leurs œuvres.
Les régulateurs français et irlandais ont contacté leurs homologues italiens pour discuter des détails de l’interdiction de ChatGPT et envisager leur propre équivalent. Le chien de garde allemand envisage sa propre interdiction en raison d’une protection inadéquate des données, écrit le journal Handelsblatt.
Une interdiction par le régulateur ne doit pas nécessairement être conforme aux souhaits du gouvernement. En Italie, le Premier ministre a récemment qualifié la décision « d’exagérée », tandis qu’un porte-parole du gouvernement en Allemagne a déclaré qu’une interdiction ne serait pas nécessaire.