L’IA de demain : les pères fondateurs poussent un énième cri d’alarme !

L'intelligence artificielle (IA), un danger pour l'humanité ? Découvrez les risques qu'elle entraine

Les effets de la mise à la disposition du grand public d’outils d’IA comme le désormais célèbre Chat GPT-4 se multiplient. Alphabet avait récemment réagi en fusionnant Google Brain et DeepMind pour augmenter sa force de frappe dans le domaine. Un nouveau rebondissement vient d’intervenir, avec le départ inattendu du professeur Geoffrey Hinton, qui entend ainsi alerter librement sur les dangers de l’Intelligence Artificielle !

Geoffrey Hinton, un spécialiste reconnu de l’IA

Une brillante carrière couronnée d’honneurs

Le canado-britannique Geoffrey Everest Hinton était sans doute prédestiné par ses origines familiales à travailler dans l’informatique. George Boole, le mathématicien qui a créé l’algèbre binaire et donné son nom à la logique booléenne, est en effet son trisaïeul ! Geoffrey Hinton a quant à lui collectionné les récompenses académiques pour ses travaux dans l’IA et notamment sur les réseaux de neurones. Il a reçu en 2001 le premier prix Rumelhart, une distinction récompensant les travaux dans le domaine des sciences cognitives. Il a ensuite été en 2018 l’un des récipiendaires du prix Alan Turing, que beaucoup considèrent comme le prix Nobel de l’informatique. Ce professeur d’université de 75 ans est ainsi l’une des sommités de l’IA. Il a d’ailleurs eu comme élève Ilya Sutskever, le directeur scientifique d’OpenAI, la société qui est derrière le fameux Chat GPT-4 !

Une longue collaboration avec Google

Le professeur Hinton avait rejoint l’équipe Google Brain en 2013, tout en conservant son poste au sein de l’université de Toronto. Il a ainsi contribué de façon importante au développement des réseaux de neurones au sein de cette entité informelle de google, à l’origine notamment des progrès spectaculaires de Google Translate. L’annonce de son départ intervient immédiatement après l’annonce de la fusion de Google Brain et Deep Mind. Bien qu’il ait uniquement motivé sa décision par ses doutes quant aux dangers de l’IA, il est permis de se demander si cette réorganisation n’a pas joué un rôle dans son départ. Geoffrey Hinton a en tout cas déclaré qu’il voulait ainsi retrouver une totale liberté de parole et pouvoir s’exprimer indépendamment de google.

Un chercheur devenu lanceur d’alerte

L’inquiétude devant l’accélération du développement de l’IA

Les déclarations de Geoffrey Hinton font d’abord ressortir son étonnement devant l’énorme accélération du développement de l’IA. Alors qu’il avait longtemps pensé que ses sujets d’inquiétudes n’émergeraient que dans une ou deux générations, il les voit désormais comme imminents. Le rythme du développement de l’IA et des résultats des réseaux de neurones utilisant des quantités massives d’information est tel qu’il faut selon lui réagir à très court terme et non attendre et voir avant de décider ce qu’il faut faire.

Un repenti de l’IA ?

Le professeur Hinton s’est intéressé aux réseaux de neurones alors qu’il était encore un jeune doctorant à l’université d’Édimbourg. L’idée semblait alors relever de la science-fiction, et seul le Pentagone finançait des recherches à ce sujet aux États-Unis. Geoffrey Hinton, qui ne voulait pas participer aux développement d’applications militaires, avait alors préféré s’exiler au Canada pour ne pas collaborer à de telles utilisations et ne pas dépendre de l’argent du Département de la Défense. Il regarde désormais sa carrière avec un œil désabusé, en se consolant en se disant que s’il ne l’avait pas fait, un autre l’aurait fait ! Le professeur Hinton a vite profité de sa nouvelle indépendance vis-à-vis de google depuis son départ, en listant les risques que l’Intelligence Artificielle fait selon lui courir à l’Humanité…

Les dangers d’une Intelligence artificielle non maîtrisée

La disparition de nombreux emplois spécialisés

La robotisation a fait disparaître de nombreux emplois d’ouvriers dans les usines. Geoffrey Hinton craint que l’IA ne soit utilisée pour remplacer des cols blancs. Il cite les traducteurs et les assistants personnels parmi les emplois les plus menacés, mais il aurait sans doute pu élargir la liste aux journalistes spécialisés, aux créateurs d’illustrations graphiques, etc. L’IA semble en mesure de supprimer non seulement les emplois pénibles, que personne ne regrettera, mais aussi des emplois créatifs, qui sont appréciés de ceux qui les occupent.

Le développement d’armes létales

L’intelligence artificielle pourrait être mise au service des militaires, donnant naissance à de redoutables robots tueurs. La concrétisation dans le monde réel d’une fiction façon Terminator ne peut qu’inquiéter. Les inquiétudes du professeur Hinton en la matière ne sont cependant pas partagées par tous les experts et peut-être faut-il y voir une expression de sa défiance de longue date envers les militaires.

Le détournement de l’IA par des personnes malintentionnées

L’un des problèmes de l’intelligence artificielle est de savoir qui l’utilisera et à quelle fin. Il est difficile d’imaginer ce que pourraient en faire des groupes terroristes comme l’État Islamique, des escrocs comme ceux qui sévissent déjà sur internet ou bien encore des usines à trolls. La nouveauté de l’IA permet difficilement d’en anticiper les mauvaises utilisations. Il en en revanche à peu près certain qu’il y aura des personnes pour la détourner de ses usages légitimes et s’en servir à mauvais escient !

Fake news : la désinformation à grande échelle

Geoffrey Hinton a résumé ce risque d’une formule choc en disant que l’IA était un « générateur de conneries ». La capacité des nouveaux outils IA à créer des éléments vraisemblables mais non vrais est selon lui un vrai danger pour le fonctionnement social. La propagation des infox ou fake news classique est déjà spectaculaire. Celle de fausses nouvelles générées par l’IA pourrait être encore pire, en supplantant la réalité. Les fausses images montrant le pape en doudoune ou l’arrestation imaginaire d’hommes politiques ont déjà montré le potentiel de tromperie d’éléments artificiellement générés.

Une alerte salutaire ?

La spectaculaire sortie de Geoffrey Hinton a le mérite de sensibiliser aux risques potentiels de dérive de l’IA. Prendre au sérieux les dangers qu’il anticipe est certainement la meilleure façon d’y échapper. La mise en place de réglementations, ou simplement l’application de celles existant sur la protection des données, pourraient limiter les impacts négatifs de l’IA sans pour autant en sacrifier le développement.

Facebook
Twitter
LinkedIn