Le Conseil de sécurité de l’ONU parle des opportunités et des risques AI

Des membres du Conseil de sécurité de l’ONU et des experts en intelligence artificielle se sont longuement exprimés mardi sur le potentiel et les dangers de l’intelligence artificielle. D’une part, l’IA peut aider à combler les fossés sociaux, économiques et numériques. D’autre part, cela peut contribuer à la propagation de la désinformation et amplifier les conflits militaires.

C’est le Conseil de sécurité de l’ONU un briefing à propos de la rencontre.

Le secrétaire général veut créer un régulateur de l’IA

Les opportunités et les risques de l’intelligence artificielle ont été beaucoup discutés récemment, notamment par l’autorité néerlandaise de protection des données, la PDG d’ING Samantha Reilly et le coordinateur national pour la sécurité et la lutte contre le terrorisme (NCTV). Cependant, c’était la première fois que le sujet était abordé lors d’une réunion du Conseil de sécurité de l’ONU.

António Guterres, secrétaire général du Conseil de sécurité, a été le premier à prendre la parole en tant que président. Il a déclaré que l’intelligence artificielle avait le potentiel de dynamiser les développements internationaux. Guterres a cité comme exemples la surveillance du changement climatique, la promotion de la recherche médicale, l’amélioration des droits de l’homme et des efforts humanitaires, et l’application des cessez-le-feu.

Dans le même temps, le secrétaire général a averti que l’intelligence artificielle pourrait renforcer les préjugés et la discrimination. L’IA offre également de nouvelles possibilités de surveillance autoritaire et peut aider les gens à se faire du mal et à se faire du mal à grande échelle. « Si nous ne traitons pas ces risques, nous négligeons notre responsabilité envers les générations actuelles et futures », a souligné António Guterres.

Il soutient la proposition des membres de créer « une nouvelle entité » ou un régulateur pour orienter le développement de l’intelligence artificielle dans la bonne direction.

« Le développement de l’IA ne doit pas être laissé au secteur privé »

Jack Clark, l’un des fondateurs d’Anthropic, développeur du concurrent de ChatGPT Claude, reconnaît le potentiel de l’IA pour aider la communauté mondiale. Comme Guterres, il reconnaît que l’intelligence artificielle peut également constituer une menace pour la paix, la sécurité et la stabilité. Cela est dû au potentiel d’abus et à l’imprévisibilité de la technologie. L’IA peut encourager les gens à utiliser des applications nouvelles et inattendues.

« Nous ne pouvons pas simplement laisser le développement de l’intelligence artificielle au secteur privé », souligne Clark. Le gouvernement doit surveiller les entreprises et les organisations et les tenir responsables en développant des « systèmes d’évaluation fiables ». « Sans de tels investissements, la communauté internationale risque de placer l’avenir entre les mains d’un petit groupe d’acteurs du secteur privé », a-t-il averti.

La Chine préconise l’utilisation de l’IA pour la défense

Zhang Jun, le représentant de la Chine, a noté que l’intelligence artificielle est un couteau qui coupe dans les deux sens. Que l’IA soit bonne ou mauvaise dépend de la façon dont l’humanité l’utilise. « Le développement de l’IA doit garantir la sécurité, la sensibilisation aux risques, l’équité et l’inclusivité. Les grandes entreprises technologiques doivent indiquer clairement qui est la partie responsable et éviter de développer une technologie à risque qui pourrait avoir de graves conséquences négatives », a déclaré Jun.

Yi Zeng de l’Institut d’automatisation de l’Académie chinoise des sciences a déclaré que l’IA devrait être utilisée pour contrer la propagation de la désinformation et détecter les malentendus entre les pays. Il ne semble pas exclure les applications militaires de l’intelligence artificielle. Par exemple, il dit que l’IA devrait être utilisée pour la défense du réseau et non pour lancer une attaque. « L’IA doit être utilisée pour connecter les gens et les cultures, pas pour les séparer », a-t-il ajouté.

États-Unis : « L’utilisation militaire de l’IA doit être éthique et responsable »

Dmitry Polyanskiy de la Fédération de Russie voit de grands dangers si nous ne serrons pas les rênes dans le développement futur de l’intelligence artificielle. Il considère la création de systèmes d’armes autonomes et la diffusion de fausses nouvelles comme les deux principales menaces pour l’IA.

Les États-Unis sont plus positifs à propos de l’intelligence artificielle. « Les systèmes automatisés aident déjà à cultiver plus efficacement les aliments, à prévoir le changement climatique et à identifier les maladies chez les patients », a déclaré le représentant américain Jeffrey Delaurentis. Il reconnaît que l’IA peut également aggraver davantage un conflit militaire, par exemple si elle est utilisée pour diffuser de la désinformation ou mener des cyberattaques.

« Les États-Unis veulent travailler avec un éventail d’acteurs, y compris les États membres, les entreprises technologiques et les organisations de la société civile pour garantir que les systèmes d’IA sont sûrs et fiables », a déclaré Delaurentis. Enfin, il a déclaré que l’utilisation militaire de l’intelligence artificielle devrait être « éthique et responsable ».

La France demande de l’espace pour des applications militaires

La France a souligné que l’intelligence artificielle devait être « un outil pour la paix », notamment pour assurer la sécurité des civils et des militaires et pour faciliter l’acheminement de l’aide humanitaire. Dans le même temps, le pays souhaite que le Conseil de sécurité de l’ONU lui donne la possibilité de développer des applications à caractère militaire. En établissant un cadre international, les futurs conflits pourront être menés dans le respect du droit international humanitaire.

Cadice Lyon

"Fanatique des médias sociaux. Accro à la télévision. Évangéliste du Web. Fier érudit au bacon. Ninja du café. Organisateur professionnel."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *