Peur de l’intelligence artificielle : une crainte naturelle ?

Paris, le samedi 21 mars 2015 – Les systèmes informatiques parviennent à traiter des informations de plus en plus complexes. Cette semaine encore, un pas de plus a été franchi sur le rôle des algorithmes numériques : le plus important gérant de fonds d’investissement du monde, l’américain Bridgewater Associates a annoncé travailler à la création d’un fond qui sera entièrement géré par intelligence artificielle ! Dans le monde de la finance, ce scoop a suscité quelques frayeurs. Les financiers de Wall Street ont en effet été échaudés par un épisode survenu en mai 2010 où le Dow Jones avait accusé une baisse de 9 %... à cause d’algorithmes du marché mal réglés, comme nous le rappelle le site de BFM TV. Surtout, le pouvoir que Bridgewater Associates s’apprête à donner à des ordinateurs n’est pas sans relancer les interrogations sur les dangers potentiels de l’intelligence artificielle, relayées par de nombreuses personnalités du monde scientifique et industriel ces derniers mois.

La fin de l’humanité ?

Le milliardaire Elon Musk, fondateur de l’agence spatiale SpaceX a été l’un des premiers à avertir du risque que ferait courir le développement de l’intelligence artificielle à l’humanité. On ne s’étonnera pas d’ailleurs de constater que la médiatisation de l’annonce de Bridgewater Associates a été bien plus large, après que le scientifique eut tweeté l’information sur son fil personnel ! Elon Musk estime en effet que face au développement  de l’intelligence artificielle, « nous devrions être très prudents. Si je devais deviner ce qui représente la plus grande menace pour notre existence, je dirais probablement l'intelligence artificielle. Je suis de plus en plus enclin à penser qu'il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide. Avec l'intelligence artificielle, nous invoquons un démon ». Il est loin d’être le seul à défendre une telle opinion. Ces derniers mois, des personnalités aussi incontournables que Stephen Hawkings ou que Bill Gates se sont fait l’écho de préoccupations similaires. « Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles » reconnaît le physicien auteur d’ Une brève histoire du temps et qui en raison de sa maladie de Charcot communique avec l’extérieur grâce à un ordinateur. « Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine » avait-il ajouté à l’occasion d’une interview accordée en décembre à la BBC. Quelques temps plus tard, c’était au tour de Bill Gates de faire état de ses craintes : « Je suis de ceux qui s'inquiètent de la super-intelligence. Dans un premier temps, les machines accompliront de nombreuses tâches à notre place et ne seront pas super-intelligentes. Cela devrait être positif si nous gérons ça bien. Plusieurs décennies plus tard cependant, l'intelligence sera suffisamment puissante pour poser des problèmes. Je suis d'accord avec Elon Musk et d'autres, et je ne comprends pas pourquoi les gens ne sont pas inquiets » remarquait le fondateur de Microsoft.

Gare au big bug

Difficile a priori de concevoir comment un programme conçu par l’homme pourrait se révéler néfaste pour lui. Pour comprendre comment la machine pourrait facilement s’enrayer, Nick Bostrom, directeur de l’Institut du Futur de l’Humanité qui dépend de l'Université d’Oxford explicite cité par l’Expansion : « Les programmateurs peuvent échouer à anticiper l’ensemble des façons possibles d’atteindre le but qu’ils fixent à une machine. Ceci en raison de biais et de filtres innés et acquis. Une super-intelligence artificielle dépourvue de ces biais pourraient employer des moyens, logiques mais pervers et dangereux pour l’homme, d’atteindre ce but ». Toujours pour l’Expansion, Gérard Berry, professeur au Collège de France et qui vient d’être distingué de la médaille d’or du CNRS renchérit : « L’homme est incomplet, incapable d’examiner les conséquences de ce qu’il fait. L’ordinateur, au contraire, va implémenter toutes les conséquences de ce qui est écrit. Si jamais dans la chaîne de conséquences, il y a quelque chose qui ne devrait pas y être, l’homme ne s’en rendra pas compte, et l’ordinateur va foncer dedans. C’est ça le bug. Un homme n’est pas capable de tirer les conséquences de ses actes à l’échelle de milliards d’instruction. Or c’est ça que va faire le programme, il va exécuter des milliards d’instructions ».

Développer les gardes fous en même temps que l’intelligence artificielle

Ces inquiétudes poussent aujourd’hui un nombre croissant de chercheurs à s’intéresser non pas seulement à l’intelligence artificielle mais aux moyens d’en limiter les conséquences potentiellement néfastes. Début janvier, au lendemain d’une conférence organisée sur le sujet par l’Institut du Futur de l’Humanité, 700 chercheurs signaient une tribune remarquant : « Il existe désormais un large consensus selon lequel les recherches sur l'intelligence artificielle avancent à un rythme soutenu, et leur impact sur la société va probablement aller en augmentant ». Pour eux « l’éradication des maladies et de la pauvreté » pourrait être facilitée par le développement de l’intelligence artificielle. Mais ses dangers ne doivent pas être ignorés jugent-ils : « Etant donné le grand potentiel de l’intelligence artificielle, il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges ». Aussi, suggéraient-ils différentes pistes de recherche. Ces appels ont rapidement trouvé un écho : Elon Musk, séduit par leur initiative a annoncé qu’il allouerait 10 millions de dollars à la création d’un fond de recherche dédié à la sécurisation des futures avancées de l’intelligence artificielle.

Tous dans des bunkers avec de l’héroïne

Tous les spécialistes et observateurs sont cependant loin de souscrire à l’urgence décrétée par Elon Musk, Stephen Hawkings ou Bill Gates. « Les incertitudes sur le développement de l’intelligence artificielle sont extrêmes » estime ainsi Stuart Armstrong, également membre du fameux Institut du Futur d’Oxford. D’autres se montrent plus sévères, jugeant que les scénarios « apocalyptiques» présentés sont « incohérents » et « extrêmement improbables », selon Richard Loosemore professeur de mathématique et de physique au Wells College d’Aurora dans un article pour l’Institut d’éthique des technologies émergentes. Parallèlement à ces critiques, ces spécialistes peu convaincus de la pertinence des cris d’alarme, jugent que les gardes fous évoqués sont très difficiles à concevoir. Evoquant les restrictions que certains voudraient voir appliquer à l’intelligence artificielle, Richard Loosemore ironise : « Ils rendraient les programmes tellement instables, qu’ils ne pourraient jamais atteindre le niveau auquel ils pourraient devenir dangereux ». Stuart Armstrong de son côté observe : « Le problème c’est qu’il est extrêmement difficile de programmer des objectifs compatibles avec la dignité voire la survie de l’Humanité. Il faudrait programmer parfaitement presque toutes les valeurs humaines dans l’ordinateur afin d’éviter que l’intelligence artificielle n’interprète "éradique la maladie" comme "tue tout le monde" ou bien "garde les humains sains et sauf et contents " comme "enterre tout le monde dans des bunkers avec de l’héroïne "».

Les différences facettes du trans-humanisme

Pour le monde de la santé, ces débats sont en tout état de cause fondamentaux à plus d’un titre.

D'une part parce qu’on l’a vu, l’intelligence artificielle pourrait permettre de répondre à d'importants enjeux médicaux. Et d'autre part car, ces inquiétudes rejoignent les discussions actuelles sur les dangers des manipulations génétiques, aujourd’hui très largement facilitées par des progrès techniques, polémiques que nous évoquions cette semaine dans nos colonnes.

Aurélie Haroche

Copyright © http://www.jim.fr

Réagir

Vos réactions

Soyez le premier à réagir !

Les réactions aux articles sont réservées aux professionnels de santé inscrits
Elles ne seront publiées sur le site qu’après modération par la rédaction (avec un délai de quelques heures à 48 heures). Sauf exception, les réactions sont publiées avec la signature de leur auteur.

Réagir à cet article