De la Morale des calculettes (et de ceux qui les construisent)
Publié le
27.8.25
Par
Nolt
Lorsque l’on évoque l’intelligence artificielle, ou IA, un problème de fond se pose d’emblée. Car, à l’heure actuelle, malgré les prouesses des bots mis en place par tout un tas d’entreprises (pour dessiner, créer des vidéos, des musiques ou simplement répondre à des questions ou discuter), il n’est absolument pas question d’intelligence en réalité. Les logiciels (chatgpt et bien d’autres) ne comprennent absolument pas ce qu’ils font ou disent. Il n’y a donc aucune trace « d’intelligence » dans leurs activités. Ce qui est très facile à démontrer, les IA commettant des erreurs absurdes qu’aucun être humain ne ferait (du genre, dessiner un personnage avec trois bras).
L’intelligence artificielle sera digne de ce nom lorsqu’elle fera réellement preuve d’intelligence. Et alors, d’autres problèmes se poseront. Mais pour le moment, il est intéressant de se pencher sur les limites "morales" des IA mises à la disposition du grand public.
Avez-vous remarqué que les IA, quel que soit leur domaine de spécialisation, sont très frileuses quant à ce qu’il est permis ou non de créer ?
Il arrive très souvent que des termes, sortis de leur contexte, aboutissent à un blocage, ou plus précisément à une censure, l’IA refusant de créer un dessin, une musique, un exposé sous prétexte qu’elle a détecté des éléments "problématiques". Et les éléments problématiques, ça peut être absolument n’importe quoi : une arme (dans un contexte historique ou scientifique), un couteau de cuisine, un terme un peu vulgaire (dans un dialogue argotique ou une chanson paillarde), un slogan, un visage, même une couleur ! On se croirait revenu au bon vieux temps de grand-papy, quand les Ricains ou le JT de TF1 étaient choqués par les couleurs des BD (véridique !), le metal, les JdR ou les jeux vidéo. Sauf que là… c’est encore plus con, car c’est ta calculette, censée te simplifier la vie, qui te fait la morale.
Bien entendu, il n’échappera à personne qu’en réalité, la morale en question provient des créateurs de l’IA. Et qu’en fait, il ne s’agit même pas de la morale propre aux créateurs, mais d’une sorte de compromis sociétal imposé à l’instant T. Compromis imposé par un nombre restreint de gens, tous d’ailleurs du même bord politique. Car nous sommes à l’époque du wokisme, du politiquement correct, et de la confiscation du pouvoir démocratique par de pseudo-élites.
Mais nous n’allons même pas creuser dans ce sens. Peu importe après tout la morale diffusée, qu’elle soit honnête, logique et noble ou qu’elle soit de gauche.
Pourquoi cette morale pose-t-elle problème aujourd’hui ? Car, après tout, chaque époque a eu la sienne, diffusée par l’élite en place, que ce soit le clergé, les artistes, les commerçants ou même les militaires. Eh bien, la grande différence, ce qui est à la fois drôle et terrifiant, c’est le vecteur de cette morale.
En effet, autrefois, lorsque vous étiez instituteur, forgeron, pêcheur ou chauffeur de taxi, si la morale ambiante ne vous convenait pas, cela avait peu d’impact sur votre vie. Car elle provenait d’élites souvent déconnectées du peuple et de sa réalité. Et surtout les moyens de diffusion étaient limités (presse, œuvres artistiques, affiches…). De nos jours, ce qui est nouveau et contraignant, c’est que l’outil même de l’artisan peut être à même de lui faire la morale et de le "rééduquer".
On croirait un cauchemar orwellien, or ce n’est que la réalité.
Il arrive à l’heure actuelle qu’une IA refuse d’accéder à une demande sous prétexte qu’un élément de cette même demande ne lui convienne pas. Cela n’a pas encore énormément d’impact sur vos vies, si ce n’est une légitime frustration, mais imaginez demain. Quand tout sera piloté par l’IA. Car, oui, tout sera piloté par l’IA. Votre véhicule, votre frigidaire, votre traitement de texte, votre arme si vous êtes militaire ou policier. Et ce n’est pas une question de volonté, c’est la marche inexorable du progrès technique. Le téléphone n’a jamais été une obligation légale, pourtant, aujourd’hui, vous ne pouvez rien faire (même pas commander un article sur internet) sans fournir un numéro. La voiture n’a jamais été une obligation, et elle ne l’est toujours pas en ville (elle est cependant remplacée par différents abonnements, au métro, au bus ou à n’importe quel moyen de circulation supplantant en vitesse la simple marche à pied), par contre, à la campagne, sans elle, il sera très difficile voire impossible de faire ses courses, aller à l’école ou consulter un médecin. Internet, à ses débuts, ne servait à rien, si ce n’est à discuter avec des inconnus. Aujourd’hui, c’est indispensable pour bien des choses (consulter son compte en banque, déclarer ses impôts, activer l’alarme de son domicile…).
Un progrès technologique, s’il est efficient, finit toujours par s’imposer et, dans les faits, devenir obligatoire. Si un simple téléphone ou un moyen de transport relativement limités sont devenus indispensables, imaginez ce que sera l’IA dans 5 ans. Ou 10 ans. Ou 20 ans.
C’est une certitude, vous aurez de l’IA partout, que vous le vouliez ou non.
Et ce ne serait pas si grave si l’IA demeurait neutre. Mais elle ne le sera pas. Elle ne l’est déjà pas.
Imaginez un tableau qui refuse d’afficher ce que l’instituteur ou l’institutrice écrit. Imaginez une forge qui refuse de s’allumer sous prétexte que son possesseur souhaite forger une épée. Imaginez un navire qui ne sort pas du port parce que le pêcheur qui l’a acheté a posté un slogan jugé inquiétant sur les réseaux sociaux. Imaginez une Microdes (fusion de Microsoft et Mercedes) qui refuse de démarrer parce que l’adresse rentrée dans le GPS ne lui convient pas…
Imaginez un monde où ce n’est plus l’élite qui fait la morale, mais l’outil.
Encore une fois, peu importe la morale, le contenu peut être intelligent ou stupide, noble ou criminel, c’est le principe qui est fou. Nous sommes en train de laisser des ingénieurs, jeunes et à la culture forcément limitée, décider de ce que nos outils nous permettront de réaliser. Sur la base d’une morale floue, changeante, basée sur des idéologies injustes ou des faits discutables, et ce de manière totalement opaque et antidémocratique.
Les plus imaginatifs ont déjà compris l’horreur d’un tel pouvoir laissé aux "outils". Mais pour les autres, voyons quelques exemples…
Le navire et la Microdes évoqués plus haut n’étaient vraiment rien. Voyons maintenant l’épouvantable quotidien imposé par l’IA et sa morale, dès demain.
Vous vous précipitez hors de chez vous, c’est le plus beau jour de votre vie, votre femme est en train d’accoucher ! Vous voulez donc vous rendre à la maternité, pour la soutenir et assister à la naissance de votre enfant, mais… votre véhicule ne démarre pas. En effet, on est dimanche, vous n’allez donc pas au travail. Or, on est en juin, il fait très chaud, les indices de pollution sont au plus haut, et vous avez dépensé votre crédit de circulation "loisir".
Bon, tant pis pour le gamin, vous rentrez chez vous pour bosser un peu. Vous êtes journaliste et vous enquêtez (c’est de la science-fiction hein, faites l’effort de supposer que les journaleux font leur boulot) sur une étrange affaire. Après des rumeurs d’abus de biens sociaux, un ancien ministre, très proche du pouvoir, se serait suicidé en se tirant trois balles dans le dos et en se jetant, lesté d’un WC chimique, dans un étang jouxtant sa propriété (ne souriez pas, regardez donc la manière dont Marie-France Pisier s’est "suicidée" alors qu’elle dénonçait les agissements pédophiles de son beau-frère, proche du pouvoir). Vous souhaitez aborder le sujet mais votre traitement de texte refuse de taper le mot "suicide" dans un souci de "protection de la vie".
Ulcéré, vous décidez de téléphoner à un ami avocat, afin de prendre conseil auprès de lui sur la manière de contourner ce blocage. Or, surprise, le numéro de votre ami avocat n’est pas joignable car ledit avocat est suspendu de tout contact social après avoir remis en cause une décision de justice.
Vous commencez à comprendre… tout est cloisonné, opaque, fermé, vous n’arriverez à rien. Désespéré, vous voulez vous servir un whisky, mais votre bar piloté par IA refuse, car il estime que vous n’êtes pas dans une configuration mentale vous rendant apte à boire. Ivre de rage à défaut d’alcool, vous cognez dans le mur et entendez une voix féminine et enjouée dire : "Les soins liés à cette fracture de la phalange proximale de l’index ne seront pas remboursés car elle résulte d’un acte volontaire jugé antisocial."
Vaincu, à bout, vous sortez sur votre terrasse, les larmes aux yeux, le cœur brisé et la main tremblante. Vous repensez à ces livres, lus dans votre enfance, qui parlaient d’un autre monde. Un monde avant l’IA. Vous n’avez même pas envie de résister, de vous rebeller, vous voulez juste vous perdre dans un roman ancien, noyer votre souffrance dans un peu de fiction et de littérature. Vous rentrez, ouvrez votre tablette Bouqu’in et dites juste "Les Aventures de Huckleberry Finn, Mark Twain". La réponse est immédiate : "Œuvre originale (455 pages) non disponible, œuvre révisée (43 pages) et expurgée des contenus problématiques disponible en location pour 78 crédits."
Vous refermez la tablette et pensez à l’époque de votre grand-père, où tout pouvait s’arrêter avec une pression sur la détente d’un calibre. Mais vous savez que cela aussi, c’est impossible, car la seule arme à feu que vous possédez est équipée d’un système d’intelligence artificielle… pour votre propre sécurité.
On continue ? Non, je pense que l’idée est claire. Le contenu de la morale est déjà un problème en soi. Qui décide ? Comment ? Sur quelle base ? Pour combien de temps ? Dans quel contexte ?
Mais le véritable problème auquel nous devons faire face, aujourd’hui et plus encore demain, ce n’est pas la morale mais ses vecteurs multiples, incontrôlables et arbitraires.
Quand le pouvoir interdit à un citoyen de décrire une réalité, cela s’appelle une dictature.
Quand c’est le stylo qui le fait à la place du pouvoir, cela s’appelle une astuce. Et c’est bien plus ardu à renverser.
![]() |
Ce qui semble évident ne l'est que parce que l'on fait l'effort de maintenir l'évidence... que cette évidence soit la bière dans votre main ou la liberté que vous tenez pour acquise. |