Les pays européens sont préoccupés par l’utilisation des données qu’OpenAI utilise pour entraîner son modèle GPT. Le développeur d’IA utilise pour cela des données publiques disponibles sur Internet. Toutefois, si ces données contiennent des informations personnellement identifiables, OpenAI ne peut pas utiliser ces données sans autorisation.
Plan européen
L’Organisation européenne des consommateurs (BEUC) appelle les autorités européennes et nationales à lancer une enquête sur ChatGPT et les chatbots similaires, à la suite du dépôt d’une plainte aujourd’hui par le groupe de la société civile basé aux États-Unis CAIDP auprès de la Federal Trade Commission des États-Unis contre ChatGPT -4.
L’UE travaille sur la première législation, mais le BEUC estime que cela avance trop lentement. Selon l’autorité, les consommateurs courent de nombreux risques pendant la période de transition. La grande question est de savoir si les Pays-Bas et d’autres pays de l’UE partagent cette position et si l’Italie, l’Allemagne et la France suivront.
Ursula Pachl, directrice générale adjointe du Bureau européen des consommateurs (BEUC), a déclaré : « Malgré tous les avantages que l’IA peut apporter à notre société, nous ne sommes actuellement pas suffisamment protégés contre les dommages qu’elle peut causer aux personnes. En quelques mois seulement, nous avons assisté à une adoption considérable de ChatGPT et ce n’est que le début. Attendre que la loi sur l’IA soit adoptée et entre en vigueur, ce qui se produira dans des années, n’est pas suffisant, car de sérieuses inquiétudes grandissent quant à la manière dont ChatGPT et les chatbots similaires peuvent tromper et manipuler les gens.