Les prodiges de l’intelligence artificielle

Transports, santé, Internet, smartphones… L' » IA  » a envahi notre quotidien sans que nous en prenions conscience. Demain, elle promet de libérer les machines et de les rendre autonomes en leur donnant des capacités d’apprentissage illimitées. Entre vrais progrès, fantasmes, risques et questions éthiques, Le Vif/L’Express aide à faire la part des choses.

« Intelligence artificielle  » : la formule évoque de mystérieuses prouesses réalisées par des cadors de l’informatique dans le secret de leur laboratoire. Pourtant, l’IA – comme la nomment les scientifiques – se trouve déjà profondément ancrée au coeur de nos vies, sans qu’aucun d’entre nous n’en ait pris conscience. Au saut du lit, vous dégainez votre iPhone et interrogez Siri, sa commande vocale ? C’est de l’IA. Vous enjambez votre robot aspirateur qui tente de se glisser sous le lit ? C’est de l’IA. Une fois dehors, vous montez dans votre voiture et l’ordinateur de bord se connecte à un système de gestion des transports pour vous assurer le meilleur chemin ? C’est de l’IA. Arrivé au bureau, vous surfez sur Internet et un site de traduction automatique vous aide à converser avec votre client américain ? Encore et toujours de l’IA.

 » La question n’est plus de savoir s’il faut craindre ou pas l’intelligence artificielle, mais de mesurer la façon dont elle change notre quotidien « , explique le très technophile Laurent Alexandre, président de la société belge DNAVision, spécialisée dans le séquençage du génôme humain, et fondateur du site Doctissimo.com. Mais de quoi parle-t-on exactement ? Sur le papier, l’IA n’est qu’un ensemble d’algorithmes, qui sont eux-mêmes une suite d’opérations permettant de résoudre un problème technique donné. Le concept a été développé durant l’été 1956 à Hanover (Etats-Unis), lors de la conférence du Dartmouth College. Selon les fondateurs de la discipline, John McCarthy ou Marvin Minsky – décédé le 24 janvier 2016 -, chaque aspect de l’apprentissage ainsi que n’importe quel trait de l’intelligence peuvent être décomposés en modules élémentaires, qu’une machine serait en mesure de simuler. Jusqu’à égaler le cerveau humain ? Nous sommes encore loin de cette perspective aussi fascinante qu’inquiétante, car l’être humain n’est pas uniquement logique : il fonctionne aussi à l’intuition.  » Les scientifiques ont longtemps cru que simuler voulait dire « reproduire à l’identique », mais l’on sait désormais que la machine ne copie pas, elle cherche à trouver un résultat équivalent « , précise Jean-Gabriel Ganascia, professeur au laboratoire d’informatique de l’université Pierre-et-Marie-Curie (Paris VI). Les espoirs soulevés par les inventeurs de l’IA ont ainsi été suivis d’une profonde désillusion dans les années 1960, d’autant que les progrès des ordinateurs n’ont pas été au rendez-vous. Les choses ont évolué en 1985, avec le développement de la robotique, notamment au Japon, mais, là encore, cette nouvelle vague d’enthousiasme a été de courte durée : les robots sont restés cantonnés au monde industriel, sans s’inviter dans l’univers domestique.

Imiter le fonctionnement neuronal du cerveau

 » Le XXIe siècle est celui d’une nouvelle révolution, la « robolution », qui s’opère sous nos yeux et se caractérise par une accélération vertigineuse des technologies « , analyse Laurent Alexandre. Cette croissance exponentielle s’explique par la loi de Gordon E. Moore, un des fondateurs de la société Intel, selon laquelle la puissance des ordinateurs double tous les dix-huit mois. Chaque jour qui passe rend nos nouvelles machines plus intelligentes et booste des technologies obéissant à des impératifs de vitesse qui modifient la temporalité à laquelle nous étions assujettis jusque-là. Un exemple ? Alors qu’il a fallu plus d’un siècle entre la découverte du phénomène physique de la photographie et sa généralisation dans la société (autour de 1850), seulement vingt-quatre à quarante-huit mois suffisent désormais pour réaliser ce passage du labo au grand public. Ce renouveau du concept d’intelligence artificielle s’explique par une folle accélération – le supercalculateur chinois Tianhe-2 réalise 33 millions de milliards d’opérations par seconde – dans un monde de plus en plus connecté, où l’accès à des données massives (big data) devient un jeu d’enfant.

Dans son acception première, les informaticiens ont coutume de parler d' » IA faible  » pour qualifier une machine autonome capable de résoudre un problème donné. Il n’empêche que, afin de parvenir à semblable résultat, le système doit posséder une certaine forme d’autonomie et une capacité d’apprentissage. C’est le cas de la plupart des applications disponibles sur Internet. Le moteur de recherche de Google doit constamment  » apprendre  » afin de répondre de la manière la plus pertinente possible à chacune de nos requêtes. Les agents conversationnels fonctionnent de la même façon, tout comme les outils de proposition des plate-formes Amazon, Netflix ou YouTube. En dehors de la Toile, les robots d’assistance présents dans certains hôpitaux, les logiciels de traduction ou encore les jeux vidéo correspondent à cette définition d’IA simple.  » Mais depuis une décennie, l’intelligence artificielle a franchi un nouveau palier en matière d’apprentissage grâce au deep learning « , indique Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (Isir) de l’université Pierre-et-Marie-Curie.

L’expression, qui commence à pointer son nez dans les médias grand public, renvoie à un horizon démesuré : le deep learning vise en effet à imiter le fonctionnement neuronal du cerveau humain. Tout réside dans l’agencement particulier de milliers de puces électroniques (équivalentes aux neurones), organisées en différentes couches (comme un cortex cérébral) qui se nourrissent les unes des autres – d’où le terme d’apprentissage  » profond  » – pour progresser. A l’origine de ce système : un Français, Yann LeCun, et un Britannique, Geoffrey Hinton, deux universitaires recrutés à prix d’or par Facebook (pour le premier) et par Google (pour le second). Aujourd’hui, tous les géants des nouvelles technologies (les fameux  » Gafa « ) se lancent à corps perdu dans le deep learning. Au sein de son laboratoire parisien, Facebook développe le logiciel DeepFace, de reconnaissance des visages, au taux de réussite exceptionnel (97 %) ; Google utilise sa plate-forme Tensorflow pour le classement automatique des e-mails (Gmail), Apple, son fameux assistant Siri, ou Amazon, son programme de synthèse vocale Alexa. Fin décembre, Microsoft a également lancé XiaIoce, un logiciel d’IA chargé de présenter le bulletin météorologique sur la chaîne chinoise Shanghai Dragon. Cette Miss Météo nouvelle génération – incarnée par un écran géant à la voix féminine – effectue des commentaires en temps réel ou répond aux questions du présentateur grâce à sa base de données, sans cesse réactualisée. Mais dans ce domaine, le champion toutes catégories s’appelle Watson, le programme d’IBM lancé en 1991 et dont les prouesses en matière de diagnostic médical – il peut lire 20 millions de pages en trois secondes – l’amènent aujourd’hui à frapper aux portes des hôpitaux.

Les machines puisent leur savoir dans le big data

 » Les Gafa sont des colosses aux pieds d’argile : ils disposent de moyens considérables, mais ne peuvent pas se laisser déborder, voilà pourquoi ils lancent des recherches tous azimuts « , estime le Pr Jean-Gabriel Ganascia. A l’instar de Google, première capitalisation mondiale (555 milliards de dollars), qui ne cesse de se diversifier. Au sein de son propre laboratoire, le GoogleXlab, la firme de Mountain View met en chantier un maximum de projets futuristes en matière d’IA dans la robotique, la santé ou encore les transports avec la Google Car, projet très avancé (voir page 42). Et lorsqu’elle n’a pas les compétences en interne, elle s’offre des start-up spécialisées. Une stratégie payante pour DeepMind, une petite société londonienne rachetée 400 millions de dollars en janvier 2014 et qui, voilà quelques jours, a réussi un exploit qui a fait la Une de Nature, la plus importante revue scientifique. Son algorithme, baptisé AlphaGo, a battu un joueur professionnel de go, ce jeu de stratégie ancestral d’origine chinoise.  » La machine a, dans un premier temps, emmagasiné un maximum de parties jouées par l’homme, détaille Alexei Grinbaum, physicien et philosophe au laboratoire Larsim (CEA-Saclay). Puis, dans un second temps, elle s’est affrontée avec une autre machine pour améliorer seule son réseau neuronal, avant, enfin, de se mesurer au champion européen en titre.  » Prochaine étape au mois de mars 2016 : AlphaGo défiera le champion du monde, le Sud-Coréen Lee Sedol, 32 ans.

Ces machines apprenant de façon autonome, puisant leur savoir dans l’immensité du big data et de façon toujours plus rapide, commencent à soulever de nombreux questionnements. Dès les années 1950 a émergé l’idée qu’un jour viendrait où les scientifiques aboutiraient à une  » IA forte « , se comportant non seulement avec intelligence, mais éprouvant aussi une réelle conscience, douée d’une capacité d’émotion et de sentiments. Ce jour-là a même été annoncé par quelques techno-prophètes venus de la Silicon Valley, comme l’ingénieur américain Ray Kurzweil, actuel directeur du développement de Google, qui prédit pour 2045 le dépassement de l’intelligence humaine par celle de la machine – ce qu’il appelle la  » singularité « . Une nouvelle espèce hybride en sortirait, promise à l’immortalité. Pure affabulation, mais certains scientifiques et industriels s’alarment déjà des dangers potentiels de l’IA. Témoin, l’astrophysicien Stephen Hawking, dans une récente interview à la BBC :  » Les humains, qui sont limités par leur lente évolution biologique, ne pourraient pas rivaliser (face à la machine). Cela pourrait être la fin de la race humaine.  » Ou encore Elon Musk, patron de Tesla, dont les voitures électriques sont assemblées dans une usine robotisée à 100 % et qui voit en l’IA  » la plus importante menace existentielle « . Cette vision apocalyptique, largement relayée par l’industrie du cinéma, a connu un large écho avec le débat sur la possibilité de créer, à terme, des  » robots tueurs autonomes « , utilisés sur les différents terrains de guerre.  » Cette croyance est un pur fantasme !  » s’exclame le Pr Ganascia, qui en appelle à plus de bon sens :  » Nous ne savons pas définir la conscience. Comment voulez-vous la développer dans une machine ?  » Ce problème de définition se pose également avec les armes létales autonomes.  » Cette formule ne veut rien dire, explique Raja Chatila, directeur de l’Isir. Donner une capacité de discernement à une mitraillette n’a rien d’évident. Dans le droit international, il est interdit de tirer sur un blessé, sur une ambulance, sur un homme qui se rend ou qui se trouve dans un lieu sacré. Vous croyez vraiment qu’un drone armé pourra faire ces distinctions sans l’homme ?  » D’autres s’interrogent plus globalement sur la vision darwinienne de l’IA qui nous verrait soumis puis éradiqués au profit des machines :  » Pourquoi cette théorie du remplacement ? s’agace le physicien et philosophe Alexeï Grinbaum. Pour qu’une espèce veuille en exterminer une autre, il faut qu’elles partagent le même habitat et se disputent les mêmes ressources. Ce n’est pas le cas dans la confrontation homme/machine.  »

Priorité à la protection des données personnelles

En revanche, si ces débats futuristes focalisent l’attention et fabriquent des peurs lointaines, ils occultent les dangers actuels de l' » IA faible « . Ne serait-il pas temps, en effet, de réfléchir sérieusement à la protection des données personnelles et aux moyens de la garantir ?  » Ces données apportent une connaissance de plus en plus précise des comportements individuels et collectifs afin d’ajuster des offres de produits et de services « , explique Eric Sadin, philosophe. Mais quelle en est la conséquence ? Une  » marchandisation intégrale de la vie « . D’un point de vue strictement économique, l’emballement technologique lié à l’IA entraîne deux effets majeurs, soulevés par Erik Brynjolfsson et Andrew McAfee dans leur ouvrage Le Deuxième Age de la machine (Odile Jacob) : d’un côté, une forme d' » abondance « , autrement dit une hausse du niveau de vie global pour le plus grand nombre ; de l’autre, une  » dispersion  » inéluctable de la richesse avec une répartition du revenu plus déséquilibrée que par le passé au bénéfice d’une élite de l’industrie technologique. Et l’homme dans tout cela ?  » On glose beaucoup sur « comment la machine nous imite », mais, à l’inverse, on ne se demande pas comment elle modifie nos comportements et si cela va dans le bon sens « , reprend Alexeï Grinbaum. Et l’essayiste de dénoncer notre comportement  » Shiva « , induit par les smartphones, qui nous conduit à faire (mal ?) plusieurs choses en même temps. Jusqu’où, enfin, acceptera-t-on de déléguer du pouvoir aux machines qui, grâce à l’intelligence artificielle, interprètent en temps réel quantité de situations de tous ordres, suggèrent des solutions et prennent des décisions à notre place ? La question, ici, n’est plus celle du progrès, mais du libre arbitre, seul à même de nous laisser maîtres du cours de nos existences.

Par Bruno D. Cot

Deep learning : l’agencement de milliers de puces électroniques, organisées en couches qui se nourrissent les unes des autres

 » Nous ne savons pas définir la conscience. Comment voulez-vous la développer dans une machine ?  » Pr Ganascia (université Pierre-et-Marie-Curie – Paris VI)

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire