Tout a commencé lorsque l’un des fondateurs de l’intelligence artificielle, Geoffrey Hinton, a démissionné de Google au début du mois pour avertir les gens de son propre travail. Il craignait que l’intelligence artificielle (IA) ne crée tellement de fausses nouvelles et de désinformations sur Internet qu’à un moment donné, les gens ne soient plus en mesure de savoir ce qui est vrai et ce qui ne l’est pas. Ses déclarations ont fait grand bruit.
Peu de temps après, d’autres hauts dirigeants se sont prononcés. Apple a prévenu que l’IA conduirait à des escroqueries Internet beaucoup plus sophistiquées. Le PDG du populaire robot linguistique ChatGPT est allé encore plus loin : l’intelligence artificielle finira par tuer l’humanité, tel est l’essentiel de son histoire.
Jeu intelligent
Cela ressemble à un scénario apocalyptique improbable. Pourtant, des centaines de techniciens ont désormais signé une lettre ouverte. Leur appel : le développement de l’IA va beaucoup trop vite et doit être mis sur pause avant d’en perdre le contrôle. Ce qui est étrange, c’est que de nombreux signataires travaillent eux-mêmes sur les systèmes d’IA. Les avertissements de la fin de l’humanité sont-ils justifiés ? Ou s’agit-il d’un jeu astucieux joué par les grandes entreprises ?
La peur de l’IA ne vient pas complètement de nulle part. Les films de science-fiction jouent depuis des décennies avec des scénarios apocalyptiques dans lesquels des ordinateurs intelligents prennent le contrôle de l’humanité. Cette technologie semblait encore lointaine. Mais avec l’arrivée du robot linguistique ChatGPT, il est soudainement devenu très visible pour la première fois jusqu’où nous avons réellement progressé avec l’IA : vous saisissez une question ou un problème, l’ordinateur crache en quelques secondes une réponse beaucoup plus intelligente que tu aurais pu le faire toi-même. inventer.
Appelé fou
« Si vous aviez dit il y a un an que vous vous inquiétiez de l’IA, on vous traiterait de fauteur de malheur. Aujourd’hui, c’est l’inverse. Si vous dites que les dangers de l’IA ne sont pas trop graves, on vous traitera de fou. « , déclare Remy Gieling, expert en IA. « Mais l’IA en elle-même n’est pas effrayante. Nous utilisons une IA très utile au quotidien, depuis les systèmes qui prédisent si notre vol sera retardé jusqu’aux algorithmes sur les réseaux sociaux.
Ce contre quoi certains hauts dirigeants mettent aujourd’hui en garde, c’est ce qu’on appelle la « superintelligence », dit Gieling. Ce sont des systèmes si puissants qu’ils dépassent le cerveau humain. « En fait, on nous prévient désormais que les scénarios de science-fiction deviennent réalité. »
Décisions indépendantes
Eric Postma, professeur d’IA à l’université de Tilburg, estime que ces scénarios sont exagérés. « Si vous savez ce que ces modèles peuvent et ne peuvent pas faire, alors l’IA n’est pas si effrayante. Nous n’en sommes pas encore au point où les machines prennent des décisions indépendantes. »
Les vrais dangers résident désormais principalement dans les abus qui peuvent être faits avec ces modèles de formation intelligents, estime Postma. « Par exemple, l’IA peut rendre les spams si réalistes que nous tombons tous dans le piège. Ou elle peut écrire en peu de temps un logiciel capable de pirater les systèmes gouvernementaux. »
Mais pourquoi les dirigeants d’IA se bousculent-ils pour nous parler des dangers de leur propre travail ? « Je pense qu’ils jouent à un jeu commercial », explique le professeur Postma. Les grandes entreprises sont en concurrence les unes avec les autres : qui peut commercialiser le plus rapidement un bon programme d’IA ? « Microsoft, qui a contribué au succès de ChatGPT, a gagné contre Google. Alors maintenant, Google dit que le programme est dangereux. »
Qui est le patron?
Selon l’expert en IA Gieling, il ne s’agit pas seulement de concurrence entre les entreprises, mais aussi d’une tactique pour sauver leur peau : « Les pays sont en train d’adopter une législation plus stricte en matière d’IA. Je pense que les hauts dirigeants veulent faire savoir au monde qu’ils » Ils s’occupent des inconvénients de l’IA, afin de pouvoir bientôt avoir leur mot à dire sur les règles. Ils restent ainsi maîtres de la technologie. «
N’y a-t-il aucune vérité sur les scénarios apocalyptiques ? En fait, nous ne pouvons pas encore prédire ce que les puissants modèles d’IA feront ou non à notre société. C’est pourquoi il est préférable de traiter cette question avec prudence, déclare Natali Helberger, professeur de droit et de technologie numérique à l’université d’Amsterdam. « Cette responsabilité n’incombe pas seulement aux utilisateurs de l’IA, mais certainement aussi à ses créateurs. »
« Nous avons prévenu »
Helberger pense que les hauts dirigeants lancent désormais des avertissements afin de rejeter également cette responsabilité sur la société. « De cette façon, si quelque chose ne va pas, ils pourront dire : ‘Nous vous avons prévenu.’ Ils veulent que ce ne soient pas seulement leurs risques, mais ceux de la société dans son ensemble. Je trouve cela hypocrite. Si vous construisez un modèle qui, selon vous, pourrait signifier la fin du monde, alors vous ne devriez pas le rendre public.
Selon les experts, les fabricants de systèmes d’IA doivent avant tout rester transparents sur ce qu’ils apportent à la société. Professeur Helberger : « Les grandes entreprises doivent veiller à ce que les modèles qu’elles réalisent respectent nos valeurs. Et surtout que l’IA puisse également être désactivée en cas de problème. »