Anne-Sophie Bailly

L’intelligence artificielle, comme ChatGPT ou Midjourney, notre meilleure ennemie

Anne-Sophie Bailly Rédactrice en chef

Des centaines de personnalités demandent une pause dans le développement de l’Intelligence artificielle. Pourquoi faire? Pour préparer l’étape suivante?

Si jusqu’ici le phénomène ChatGPT effrayait autant qu’il fascinait, la lettre ouverte signée par des centaines de personnalités – dont Elon Musk, le fondateur de Tesla et de Space X, ou Steve Wozniak, le cocréateur d’Apple – appelant à faire une pause de six mois dans le développement et la propagation de l’intelligence artificielle (IA) a clairement renforcé les craintes envers ces outils. C’est que certains passages de la missive sont pour le moins anxiogènes.

Extraits. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.» «Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges?» «Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants?» «Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer?»

Sam Altman, le patron d’OpenAI, société créatrice du robot conversationnel ChatGPT, a lui-même reconnu être «un petit peu effrayé» par sa création si elle devait être utilisée pour de «la désinformation à grande échelle ou des cyberattaques».

Pour les signataires, ce n’est rien de moins que «la perte de contrôle sur l’avenir de notre civilisation» qui se joue derrière cette révolution technologique. Si on ajoute la récente étude de Goldman Sachs selon laquelle des outils tels que ChatGPT ou Midjourney menaceraient quelque trois cents millions d’emplois dans le monde, le tableau a effectivement de quoi effrayer.

D’où cette demande d’une pause de six mois, histoire de calmer le jeu. Mais qu’attendre de cet hypothétique moratoire? A quoi consacrer ce laps de temps éventuel?

Une des demandes des signataires de la lettre ouverte est de ne pas laisser ce champ d’action et les décisions qui y sont liées «à des leaders technologiques non élus». A charge des Etats et de la communauté scientifique de reprendre la main et d’encadrer ces nouveaux outils. A cet égard, l’Europe prépare depuis des années déjà le nécessaire «AI Act» pour réguler le secteur et garantir le droit et la sécurité de ses utilisateurs. Mais les négociations avec les Etats membres prendront encore des mois. Au moins.

Cette mise sur pause permettrait néanmoins de prendre en considération l’extrême puissance de ces plateformes. Et d’éduquer chacun à leur usage. D’expliquer encore et encore qu’un robot conversationnel aligne des suites logiques de mots. Qu’il ne cherche pas à dire la vérité. Qu’il ne source pas les informations qu’il transmet. Qu’il n’a ni conscience ni empathie.

Six mois aussi pour démystifier son influence et appréhender les avancées que cette technologie permet. Pour déceler et expliquer les enjeux commerciaux et géopolitiques derrière ces nouveaux entrants. Comme derrière ceux des pétitionnaires, d’ailleurs.

Pour poser un cadre éthique à l’utilisation de ces intelligences.

Et, surtout, pour anticiper la suite, l’émergence d’une «Intelligence artificielle générale» (AGI). Celle qui fonctionnerait comme le cerveau humain. Celle qui serait pourvue d’une capacité de raisonnement et dotée d’une intelligence émotionnelle et sociale.Ce dont ChatGPT-4 serait, selon certains experts, le précurseur.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire