deepseek
DeepSeek avait fait grand bruit début 2025, en venant titiller les mastodontes du secteur, tout en utilisant moins de puissance et affichant des besoins énergétiques réduits. © SOPA Images/LightRocket via Gett

L’IA DeepSeek interdite aux agents fédéraux, devez-vous aussi vous en passer? «Certaines personnes devraient systématiquement éviter ces produits»

Thomas Bernard
Thomas Bernard Journaliste et éditeur multimédia au Vif

Les applications proposées par DeepSeek, l’intelligence artificielle chinoise, doivent être désinstallées de tout appareil utilisé par des membres de l’administration fédérale. Au-delà des services publics, la question se pose: tout le monde doit-il également s’en passer? Regard d’experts.

La désinstallation des applications de DeepSeek, parfois présenté comme l’équivalent chinois de ChatGPT, est exigée dès ce 1er décembre 2025, sur tous les appareils utilisés par des membres de l’administration fédérale. La mesure se trouve dans une circulaire publiée par la ministre de l’Action et de la Modernisation publiques, Vanessa Matz (Les Engagés).

Contacté, le cabinet de la ministre confirme qu’il existait bien des utilisations de DeepSeek, notifiées par le SPF Stratégie et Appui lors d’un point sur l’utilisation de l’IA au sein des administrations, au mois de juin dernier. «Des analyses effectuées par le Centre pour la cybersécurité Belgique (CCB) et la Sûreté de l’Etat confirment que les risques techniques, sur la protection des données, ainsi que géopolitiques, liés directement à la Chine, justifient de prendre ces mesures préventives», explique Delara Pouya, porte-parole.

L’interdiction du modèle chinois d’intelligence artificielle concerne tant les services fédéraux que les entreprises publiques autonomes, les institutions publiques, la Défense, la police fédérale, etc. L’interdiction vaut pour l’ensemble des appareils de service utilisés par le personnel, à savoir «les appareils dont les frais d’abonnement, d’utilisation ou d’achat sont pris en charge en partie ou en totalité par les pouvoirs publics», précise la circulaire.

Risque de collusion

«Il s’agit essentiellement d’une mesure de précaution, qui sonne comme une évidence lorsqu’on évoque des départements sensibles, comme les renseignements ou la Sûreté de l’Etat, détaille Michele Riganese, porte-parole du CCB. La décision est liée au fait que le gouvernement chinois se réserve, comme avec d’autres produits et applications, un droit d’accès aux données. Le même genre de précaution avait été prise pour le réseau social TikTok, qui était utilisé en matière de communication par certains services, avec là aussi une interdiction d’utilisation visant les appareils professionnels. La Belgique n’est d’ailleurs pas la seule en Europe à avoir banni ces outils chinois au niveau de l’administration.»

«Une entreprise comme DeepSeek, même si elle n’a aucune intention malveillante, ne peut légalement pas refuser une demande d’accès aux données de la part des autorités chinoises.»

Rayna Stamboliyska, CEO de RS Strategy et spécialiste de la diplomatie du numérique, rappelle que les craintes sont très concrètes, vu l’arsenal juridique chinois. «La loi nationale sur le renseignement de 2017 dans son article 7 dispose que « toute organisation et citoyen doit soutenir, assister et coopérer avec les services de renseignement de l’Etat conformément à la loi ». L’article 14 permet aux agences de renseignement d’exiger ce soutien de manière contraignante. Concrètement, une entreprise comme DeepSeek, même si elle n’a aucune intention malveillante, ne peut légalement pas refuser une demande d’accès aux données de la part des autorités chinoises

Bannir tous les outils chinois?

Faudrait-il alors bannir plus globalement l’IA chinoise, voire d’autres outils de l’empire du Milieu, par mesure de précaution? Hugues Bersini, professeur d’informatique (ULB, Ecole polytechnique), invite à la nuance sur deux points précis. «Tout d’abord, il suffit de regarder autour de soi ce qui est utilisé: ChatGPT garde encore la main largement. Les craintes sur DeepSeek doivent donc être relativisées en regard du nombre d’utilisateurs au sein de la population. Ensuite, les informations que vous pouvez lui transmettre sont probablement moins sensibles que celles des administrations, même si la réflexion mérite aussi d’être menée lors de sa propre utilisation de l’IA.»

Pour Rayna Stamboliyska, «toutes les « personnes d’intérêt » (responsables politiques, hauts fonctionnaires, magistrats, etc.) devraient systématiquement éviter ces produits. Et cette approche doit s’appliquer à tout outil numérique déployé au sein des administrations.»

Pour autant, la question d’une interdiction de DeepSeek ne peut se résumer à une opposition binaire «Chine contre Occident», renchérit l’experte. «L’analyse doit reposer sur une évaluation des risques adaptée à chaque profil d’utilisateur. Il convient de tenir compte de la nature des données traitées, du contexte d’utilisation et du niveau de sensibilité des utilisateurs. L’administration publique et ses employés sont le cœur battant du service public et du bon fonctionnement de l’Etat. Les informations traitées sont à la fois stratégiques et sensibles, ce qui invite à une appréciation fine des outils mobilisés.»

Les solutions américaines, avec précaution également

Pour autant, se tourner vers les solutions américaines n’offre pas forcément plus de garantie. La question de la méfiance à l’égard des technologies chinoises peut s’étendre plus largement, rappellent les experts. «Si l’on regarde Microsoft, avec son IA Copilot, la firme offre des garanties de sécurité et confidentialité aux entreprises qui l’utilisent. Mais même là, il faut faire confiance à ce qui est annoncé», note Hugues Bersini.

Rayna Stamboliyska va plus loin. «Le cadre juridique américain, notamment concernant la vie privée, pose également des problèmes. C’était d’ailleurs déjà le cas avant l’arrivée de l’administration Trump 2. Pour les données stratégiques ou sensibles, le risque américain justifie les mêmes précautions que d’autres: une approche par les risques et un renforcement de la maîtrise pour les cas qui le nécessitent.»

«DeepSeek est open-weight (NDLR: les paramètres du modèle sont accessibles publiquement, contrairement à ses méthodes d’entraînement qui restent secrètes), ce qui le rend plus transparent que ChatGPT de ce point de vue», explique Pierre Schaus, professeur à l’Ecole polytechnique de l’UCLouvain et spécialiste en intelligence artificielle. Le problème, selon lui, ne réside pas tant dans le modèle ou son origine, mais bien dans l’usage qui en est fait. «Le modèle de DeepSeek en tant que tel n’est pas plus dangereux que ChatGPT, même si son alignement a été fait un peu différemment sur certains sujets sensibles pour les autorités chinoises. Le problème reste toujours du côté des questions et documents envoyés par l’utilisateur

Plusieurs niveaux de risque

DeepSeek, qui avait fait grand bruit début 2025, avec un modèle se présentant comme moins coûteux et moins énergivore, se scinde en réalité en plusieurs déclinaisons, avec des niveaux de risque variables. L’application pour smartphone demande divers accès à l’appareil et transmet les données vers la Chine avant d’obtenir une réponse. Idem pour la version en ligne et son robot conversationnel. En revanche, il est possible de faire tourner le modèle localement, sur une machine dédiée hors du réseau Internet, ce qui demande une importante puissance de calcul malgré tout.

«Lorsque les données restent sur un serveur que vous contrôlez, vous supprimez le risque de fuite et gardez totalement la main. Ce qui est fort différent avec l’application smartphone de DeepSeek, qui forcément envoie tout en Chine, avant de vous fournir une réponse», précise Hugues Bersini, sur cette distinction cruciale entre les différentes utilisations possibles.

Une application très curieuse

Le professeur souligne malgré tout une réalité évidente: le grand public utilise évidemment les outils mis à disposition, sans installer et configurer un modèle d’IA sur une machine personnelle. «C’est évidemment plus facile de solliciter les puissants serveurs mis à disposition, afin d’utiliser un grand modèle de langage. On tombe alors dans la question de ce que les conditions d’utilisation permettent avec les données fournies

«Dans sa version application à télécharger, DeepSeek collecte bien plus que les données nécessaires à son fonctionnement, complète Rayna Stamboliyska. Il y a les données de profil (téléphone, date de naissance), le contenu utilisateur (tous les prompts, historique de conversation, fichiers téléversés, contenus audio), données des tiers (par exemple celles des comptes Apple ou Google liés, partenaires publicitaires). Toutes les données sont stockées sur des serveurs en Chine, sans qu’il existe de canal de recours légal effectif pour les utilisateurs européens souhaitant faire valoir leurs droits, au titre du RGPD notamment.»

Comme pour chaque outil numérique, que l’usage soit personnel ou professionnel, la question du besoin essentiel de l’utiliser doit se poser. «Lorsqu’on se demande si on en a besoin, en général la réponse sera « pas vraiment » ou « clairement non ». Ce qui est bien pratique aussi, parce qu’en évitant de disséminer nos vies partout sur Internet, on se crée moins de problèmes pour nous protéger d’usages malveillants futurs», ajoute la spécialiste.

Quid des outils européens?

Face à cette dépendance technologique vis-à-vis de la Chine et des Etats-Unis, l’Europe est-elle capable de développer ses propres solutions en intelligence artificielle? Mistral, l’IA française, veut prouver que oui, et elle n’est pas la seule. «Oui, nous sommes clairement en mesure de le faire, affirme Rayna Stamboliyska. Mais comme toujours, la volonté politique est l’aspect le plus crucial. Tant que les politiques de soutien et l’achat ne privilégient pas les acteurs européens, nous aurons du mal à nous départir de nos dépendances extra-européennes.»

L’experte plaide également pour une mobilisation collective, dépassant le seul cadre de l’administration ou du politique. «Cela implique une démarche volontariste de la part des entreprises et des consommateurs. La technologie reste quelque chose de politique, dans le sens où elle n’existe pas dans une bulle, nous la façonnons aussi par nos choix quotidiens. En tant que société construite sur des valeurs démocratiques et des citoyens qui comprennent que les outils, en l’occurrence numériques, doivent travailler pour l’intérêt public, nous devons choisir les solutions compatibles et qui travaillent pour nos intérêts économiques européens», conclut-elle.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire