Bannir les IA voyous


Boullier D. (2026),  » Bannir les IA voyous », revue en ligne AOC, 3 Février 2026

Tribune pamphlet et stratégie politique d’action contre les prédateurs de notre attention. Il y a IA et IA: non seulement symbolique ou connexionniste ou générative mais aussi systèmes d’IA qui tentent de respecter le droit et la transparence (en fait, avec un LLM, c’est très très dur) mais aussi systèmes d’IA voyous comme les entreprises qui les portent.
Dans la revue en ligne AOC, ce jour, je désigne explicitement les IA de Open AI et de xAI, ChatGPT et Grok, pour ce qu’elles sont: des voyous, des délinquants, des irresponsables et des dangers publics. Et je fais la liste de leurs délits qui sont autant d’opportunités d’actions en justice, et cela même au pénal, bien au-delà des preuves de bonne volonté demandées par l’IA Act.

version pre-print

Bannir les IA voyous

Supplément gratuit

L’arrière-plan stratégique et politique de l’article « Bannir les IA voyous »

 

Le texte publié dans la revue AOC est une proposition stratégique et non une analyse académique. Il adopte le ton du pamphlet tout en étant appuyé autant que faire se peut sur des données et des sources pour son argument. Le chercheur ici se fait citoyen contributeur à l’orientation de politiques publiques à un moment crucial de basculement civilisationnel dans lequel les plateformes de réseaux sociaux et l’IA générative joue un rôle amplificateur très important ( les autres causes et processus provoquant ce basculement sont hors de ma spécialité).

La méthode adoptée est celle du « name and shame », que les activistes ont popularisée, notamment Naomi Klein. Pourquoi cette méthode est-elle pertinente ? Car elle prend en compte le fonctionnement de base du capitalisme financier numérique fondée sur la spéculation financière et donc sur la réputation. Une analyse anthropologique ou philosophique de la technologie sortie de ce contexte, désencastrée de ce capitalisme financier, constituerait ainsi un soutien à ce processus de désencastrement du calcul que j’ai identifié dès 2018 dans un colloque à l’UNIL (Lausanne) comme similaire au désencastrement de l’économie vis-à-vis du social, comme ce fut le cas au XIXeme siècle selon Karl Polanyi. C’est pourquoi l’analyse doit connecter tous ces points que sont la disruption comme stratégie violente voire sadique d’innovation, la quête sans fin de liquidités et la course à la taille et au monopole typique des libertariens pour attirer toujours plus les investisseurs, la négation de tout droit et tout état de droit, la version de la technologie IA la plus couteuse financièrement et écologiquement (des LLM avec toujours plus de paramètres pour tenter de corriger les défauts intrinsèques d’une approche de brute force).

Name and shame permet de tisser tous les liens entre les parties prenantes de cet écosystème (qui inclut désormais les gouvernements) pour casser leur réputation et faire peur aux seuls acteurs qui comptent vraiment aux yeux de ces firmes financiarisées, ; les investisseurs. Shame n’est donc pas intrinsèquement un argument moral, il est avant tout une stratégie de disqualification et donc de déstabilisation de la réputation puisque c’est elle qui fait tenir les promesses et attire les investisseurs.

Or, parmi toutes les plateformes qui prétendent prendre la tête de l’industrie de l’IA, les nouveaux entrants craignent le moins, car ils ne risquent pas une réputation construite depuis des années par Google, Meta, Amazon, Apple ou Microsoft. C’est pourquoi Altman et Musk sont prêts à tout pour gagner des parts de marché et surtout pour attirer toujours plus d’investisseurs, car les marchés des consommateurs ne sont plus leur cible mais bien les marchés financiers pour pouvoir brûler tout le cash voulu pour gagner la position de monopole comme a su le faire au fil des années Amazon en restant déficitaire jusqu’en 2016.

L’intérêt stratégique consiste donc à attaquer ceux qui sont vus comme des menaces aussi par les grandes plateformes déjà installées : Musk et Altman sont les franc tireurs qui disruptent tout, y compris leurs compères développeurs des grands systèmes d’IA (c’est Open AI qui a fait un passage à l’acte alors que les technologies étaient déjà dans les labos de Google ou de Meta depuis des années mais en tests non satisfaisants).

Ces disrupteurs ouvrent une forme de fenêtre d’Overton de l’innovation en testant des services et des revenus qu’on n’aurait pas osé mettre sur le marché sans eux : Sora le générateur de deepfakes, le compagnon érotique, la publicité dans les réponses de ChatGPT ou encore Grokipedia. Et comme tout est diffusé gratuitement au départ, les revenus ne sont pas à la hauteur mais le test peut fonctionner. La piste des revenus B2B, avec les entreprises, ne semble pas fonctionner aussi bien que prévu. Il ne faut pas faire confiance aux reports des grandes entreprises qui doivent afficher leur engagement pour l’usage de l’IA car en fait d’une part elle ne savent pas vraiment ce qui se passe (Shadow AI) et d’autre part, les bénéfices réels dans les process critiques sont très faibles (à part les services de communication et les tâches de rédaction de rapports sans enjeu technique par exemple ou les relations client standards). C’est ce que documente à la fois les études de terrain (et non les annonces des entreprises) du LaborIA en France ainsi que les reportings des agences d’investissement qui restent très prudentes.

Cette fragilité qui se traduit dans la crainte d’une bulle de l’IA, tout à fait justifiée selon moi et selon plusieurs analystes, constitue un atout stratégique pour fragiliser la toute-puissance et la pénétration de ces services dans les usages ordinaires. Le but du name and shame est bien de désolidariser ces deux disrupteurs des autres plateformes pour rendre visibles les risques qu’elles font prendre à toute l’industrie, alors que dans ces moments de construction d’un marché, tout le monde aurait intérêt à faire émerger ce qu’on appelle des conventions, des accords entre entreprises du secteur, des normes et des standards, indépendamment même des régulations que les Etats peinent de toutes façons à mettre en place comme on le voir avec un IA Act qui en reste aux recommandations et aux rapports autoadministrés. Ce sont les disrupteurs qu’il faut discréditer pour espérer faire bouger les lignes chez les décideurs politiques aussi alors qu’ils ont été intoxiqués aux discours prophétiques de ces plateformes. C’est seulement ensuite que l’on pourra imposer une opération de remise à plat des conditions de développement des systèmes d’IA, avec cahier des charges, conditions mesurées et métriques spécifiques, services de contrôle, etc. toutes choses qui existent dans tous les secteurs industriels mais que même l’IA Act n’est pas parvenu à mettre en place, tant la pression des plateformes fut puissante pour ne rien réglementer du tout. On en est donc réduit à une offensive de guérilla contre les éléments les plus vulnérables et agressifs de la troupe pour obliger tout le monde à rentrer dans le droit et à s’organiser pour produire des conventions , avec ou sans les Etats et les utilisateurs, mais de préférence avec si les firmes sont incapables de changer de principe d’organisation du marché. Non, leurs supposées « lois du marché » fondées sur les monopoles et sur le plus prédateur ne doivent pas être acceptées et tout doit être fait pour les arrêter, tant les conséquences sont lourdes pour toute la société et les individus.

La même opération doit être faite avec les marques qui sont désormais incapables de contrôler quoi que ce soit des placements publicitaires de leurs annonces passées sous contrôle opaque des algorithmes de publicité programmatique des plateformes. Il faut encourager toute initiative de sortie de ce chantage des plateformes. Ces opérations de name & shame sont donc des opérations politiques de détachement, de reconfiguration d’alliances, parfois improbables, d’utilisation des contradictions internes à toutes ces firmes dominantes mais en fait non nécessairement convergentes quant à leurs intérêts.

Il s’agit donc bien d’une stratégie politique, délibérée, orientée et qui pointe les enjeux de toute-puissance de ces firmes que l’on peut combattre. Beaucoup préfèrent baisser les bras au nom d’une fatalité technologique d’un supposé progrès alors qu’on en est à une phase d’exploration de possibles et qu’il existe encore beaucoup de possibles avec des conséquences nettement plus contrôlables (principalement sociales, le gig work, et écologiques, très vite oubliées par les défenseurs des LLM). D’autres jouissent même de cette incertitude pour vanter les expérimentations qu’ils peuvent faire avec une technologie hors de contrôle, les LLM, qui permettraient de voir apparaitre des comportements émergents intéressants à étudier. Tous ces exercices peuvent se comprendre mais en laboratoire, avant leur mise sur le marché. Les chimères qui ont été lancées ainsi dans le public ne seraient jamais autorisées si elles étaient chimiques, biologiques, ou radioactives. On les testerait longuement avant leur mise sur le marché et les procédures de contrôle seraient très strictes ( et pourtant même dans ce cas, parfois elles échouent !) Mais pour les chimères de l’esprit, tout va bien, c’est une aventure qu’on peut s’autoriser puisque le monde est ainsi désormais gouverné par des irresponsables. Tous ceux qui laissent faire, qui accompagnent cette diffusion devront rendre des comptes, il faut qu’ils le sachent, comme ce devrait être le cas de ceux qui ont vanté urbi et orbi l’avènement du monde nouveau des plateformes en tous temps et en tous lieux avec les effets que l’on connait maintenant.

La dénonciation qui est au cœur de l’article repose en fait sur une analyse des limites et des effets pervers intrinsèques aux architectures de LLM. Elle n’est pas a priori, elle ne visait pas tout le Machine Learning, elle ne vise pas des applications contrôlées dans certains secteurs lorsque les experts sont dans la boucle en permanence, ce qui veut dire lorsqu’ils réintroduisent de la sémantique. Mais la version déployée par les plateformes financiarisées est la pire, d’autant plus qu’elle est augmentée de l’interface immersif à base de compagnon et qu’elle va être amplifiée dès maintenant par des versions agents, qui devront, eux, sortir du monde du texte pour interagir avec « le vrai monde ». L’article ne pouvait traiter toutes ces dimensions mais il se focalise sur les points d’action déjà possibles en l’état actuel du développement des techniques.

Les préconisations d’action en justice demandent à être affinées évidemment. Car selon les types de délits inventoriés, ce sont des procédures assez différentes qu’il convient de mettre en place de même que l’intervention des autorités de régulation que je n’ai pas mentionnées (CNIL, ARCOM ou autres). Mais le name and shame doit déboucher sur du contentieux, inévitablement, car il faut prendre acte du caractère incorrigible du comportement et des stratégies des plateformes d’IA. On l’a appris avec les réseaux sociaux, elles ne se corrigent jamais, elles mentent tout le temps, et toutes les procédures d’arrangement préconisées par l’UE sont en fait vouées à l’échec. C’est donc à la fois une procédure qui doit respecter les formes légales mais qui sait d’avance qu’il faudra en passer par des sanctions et surtout par leur application. Ces individus comme leurs firmes sont habités par leur toute-puissance, qui est réelle sur le plan financier, et qui les autorise à mépriser tout le droit et même leurs concurrents, qu’ils avalent, menacent ou copient sans problèmes.

En face, c’est la volonté politique qui doit être organisée avec une task force dédié à contrer leur toute-puissance équivalente au moins à ce que l’on fait pour contrer les opérations de désinformation des puissances étrangères, car ce sont des aussi des puissances étrangères d’un autre type, que j’ai déjà analysées dans mon livre « déshumanités numériques » en faisant l’analogie avec la VOC, la compagnie des indes néerlandaise du XVIIeme siècle. Ce sont les alliances que l’on peut construire sur chacun des sujets qui feront la force de l’action : les citoyens (leur veille, leurs signalements, leurs plaintes) en font partie, les marques peuvent être mobilisées, les entreprises concurrentes de ces firmes qui ne visent que le monopole, les ayants droits des sources pillées, etc.

Ce texte est avant tout un appel à l’action volontaire organisée contre une supposée fatalité d’une évolution technique qui est en fait formatée par les intérêts de quelques firmes en visant d’abord les plus agressives et les plus facilement attaquables du point de vue légal. Mais j’y insiste, il y faut une volonté politique, sans illusion aucune sur les possibilités d’accord avec ces firmes, sinon, on cèdera aux premières promesses de conformité qui ne sont que poudre aux yeux.

Les alternatives doivent aussi être soutenues pendant ce temps, car certains semblent désorientés par le fait de devoir se passer de ChatGPT, une dépendance installée en seulement trois ans, c’est dire la puissance du produit sur les esprits. Toutes les autres solutions sont meilleures pour l’instant, et Claude ou Perplexity par exemple, dans deux domaines différents et pourtant dans l’IA générative, présentent des atouts intéressants, en tant que solution technique (l’IA éducative de Claude par exemple, le sourcing de Perplexity par exemple) mais aussi en tant que firmes. Ces autres firmes doivent être indépendantes de toute grande plateforme qui peut exploiter tout son écosystème de collecte de données individuelles comme le font Gemini et Notebook de Google, ou Llama de Meta. Perplexity est indépendant et c’est un avantage, Claude l’est moins car il est soutenu par Amazon mais son intégration à un univers de données personnelles est moins avancée et ses leaders, issus d’une scission d’OpenAI ont à cœur de tester leurs produits et d’alerter sur ses limites. Je ne saurais me prononcer sur Mistral car je ne l’ai pas testé mais sa volonté de développer des plus petits modèles doit être saluée plus que son statut européen qui demande à être confirmé. Dans tous les cas, il doit être aussi possible de soutenir des solutions radicalement différentes des LLM, quelles qu’elles soient pour l’instant, car c’est de la variation que naitra l’évolution contre les monopoles et les dépendances de sentier qu’on tente actuellement d’installer. Là c’est une politique industrielle de pluralisme qu’il convient de favoriser, avec un cahier des charges précis, contre le mimétisme qui prévaut dans des instances comme la BPI par exemple, qui doit être réorientée pour en finir avec sa gouvernance dogmatique libérale suiviste actuelle.

Cette sécession vis-à vis des plateformes US et du dogme des LLM prendra donc du temps mais doit s’appliquer d’emblée à tous les services publics, sans craindre les délais et les coûts qui en résulteront. Les compétences existent en France et en Europe et doivent être fédérées et financées, mais tous les marchés publics doivent respecter de nouveaux principes si l’on veut éviter une catastrophe industrielle et mentale. Tous ceux qui vivent dans l’angoisse de la tyrannie du retard et qui sont prêts à suivre et imiter à tout prix les solutions existantes ne servent à rien et doivent être remplacés puisque n’importe qui pourrait adopter cette vision prêt-à-porter importée des USA et des plateformes. Et il existe beaucoup d’experts capables de penser de façon autonome, créative, réaliste et stratégique à la fois, ce qui fait beaucoup de conditions à réunir, je le reconnais. Mon texte n’est qu’une brique dans cette consolidation d’une capacité de pensée autonome.

NB : Ce texte a été écrit sans l’aide d’aucune IA et sans image IA qu’il faut s’empêcher d’utiliser, ce qui sera l’objet d’un autre post bientôt ! 😉)