Dans un document commun, les trois pays décrivent comment ils visent un système d’autorégulation qui s’intéresse à l’application, mais pas à la technologie.
Les trois pays se sont mis d’accord sur un certain nombre de règles de base qui seront très probablement utilisées dans la prochaine législation européenne sur l’IA. Reuters a déjà pu consulter ce document et note qu’il repose principalement sur une autorégulation obligatoire avec des codes de conduite pour les modèles d’IA. Dans le même temps, il s’oppose à l’idée selon laquelle l’IA est mesurée par rapport à des « normes non testées ».
Un autre point remarquable est qu’il n’y a aucune sanction en cas de problème. Au moins dans un premier temps, lorsque des violations des codes de conduite surviennent, des voix s’élèvent pour réclamer l’introduction d’un tel système de sanctions.
Les règles élaborées par les trois pays soulignent également ce qui peut mal tourner avec une application d’IA. Pas avec la technologie sous-jacente. Cela signifie probablement que le créateur d’un modèle de langage d’IA n’a pas nécessairement à contrôler ce que les autres construisent avec, mais quiconque crée une application basée sur un tel modèle de langage doit respecter certaines règles.
Enfin, il y aura également des « cartes modèles » pour les modèles d’IA de base. Ceux-ci contiennent des informations sur le fonctionnement du modèle et sur ce qui est possible ou non. Les détails n’ont pas encore été déterminés, mais le document espère obtenir les meilleures pratiques de la communauté des développeurs.