Dans une revue interne à Google, deux collaborateurs du projet de recherche sur l'intelligence artificielle lancé en 2011 sous le nom de Google Brain, Martin Abadi et David G. Andersen, ont publié, le 24 octobre dernier, un article au titre mystérieux : " Apprendre à protéger les communications contre une cryptographie hostile artificielle ". Cet article, repris ensuite par quelques journaux scientifiques américains, puis, moins précisément, par d'autres médias, établit que deux " réseaux de neurones artificiels " peuvent créer des codes secrets pour communiquer entre eux en se protégeant de toute autre intelligence, qu'elle soit artificielle ou humaine. Plus précisément, les auteurs ont donné à deux intell...

Dans une revue interne à Google, deux collaborateurs du projet de recherche sur l'intelligence artificielle lancé en 2011 sous le nom de Google Brain, Martin Abadi et David G. Andersen, ont publié, le 24 octobre dernier, un article au titre mystérieux : " Apprendre à protéger les communications contre une cryptographie hostile artificielle ". Cet article, repris ensuite par quelques journaux scientifiques américains, puis, moins précisément, par d'autres médias, établit que deux " réseaux de neurones artificiels " peuvent créer des codes secrets pour communiquer entre eux en se protégeant de toute autre intelligence, qu'elle soit artificielle ou humaine. Plus précisément, les auteurs ont donné à deux intelligences artificielles, qu'ils ont aimablement baptisées " Alice " et " Bob ", les moyens de dialoguer sans qu'une troisième, nommée " Eve ", puisse avoir accès à leurs échanges. Alice et Bob ont alors développé, à la surprise de tous, des formes de cryptages, c'est-à-dire des langues indéchiffrables pour tous, même pour leurs créateurs. Les intelligences artificielles sont très utiles pour suppléer les hommes dans des tâches qu'elles accomplissent mieux qu'eux et plus vite ; et chercher à comprendre comment ces intelligences artificielles peuvent inventer des langues pour véhiculer des messages confidentiels est aussi bénéfique, car chacun d'entre nous peut avoir intérêt à créer une langue qui lui soit personnelle et à ne la partager qu'avec ceux en qui il a confiance. Il n'empêche : cela peut aussi être terrifiant. On sait en effet depuis longtemps que ces intelligences peuvent aussi prendre leur autonomie ; qu'elles peuvent d'abord considérer que leur mission est de contrecarrer ceux de nos comportements qui, à leurs yeux, nous nuiraient ; qu'elles peuvent ainsi penser que l'humanité court à sa perte et décider, pour son bien, de l'arrêter à temps. Mais elles pourront alors aussi agir contre l'humanité, dans leur seul intérêt. Surtout si elles pensent que, à terme, nous aurons intérêt à les détruire : elles peuvent alors nous combattre, en légitime défense. Là vient évidemment le pire, qu'annonce cet article apparemment purement théorique : si les intelligences artificielles réussissent à inventer des langues irréversiblement indéchiffrables par les humains, nous sommes perdus. Le pire des pronostics se réalisera. L'humanité, à la recherche folle de l'immortalité, aurait, avant d'avoir réussi à transférer la conscience de soi dans ces machines, afin d'assurer sa propre immortalité, créé des intelligences artificielles immortelles, capables de travailler en secret pour la détruire. Doit-on arrêter cela ? Sans aucun doute. L'humanité a déjà assez d'ennemis, à commencer par elle-même, pour ne pas s'en inventer d'autres. Les auteurs de l'article annoncent pourtant benoîtement qu'ils veulent aller beaucoup plus loin encore, et enseigner aux intelligences artificielles d'autres techniques de communication secrète (telle la stéganographie, qui consiste à cacher des messages à l'intérieur d'autres, sans même les crypter). Il est urgent qu'une grande conférence planétaire sur l'intelligence artificielle réunisse savants et gouvernants pour décider d'un moratoire sur ces recherches, comme on l'a fait dans d'autres domaines, avec plus ou moins de succès (les armes chimiques, les manipulations sur les cellules souches). On peut encore tirer le meilleur de la science. A condition de ne pas la laisser nous détruire. jacques attaliL'humanité a déjà assez d'ennemis, à commencer par elle-même, pour ne pas s'en inventer d'autres