• La banalité du mal algorithmique

    La banalité du mal algorithmique

    En 1961, Hannah Arendt assiste au procès d’Adolf Eichmann, architecte logistique de la Shoah. Elle s’attend à rencontrer un monstre. Elle découvre un bureaucrate médiocre qui obéissait aux ordres.

    C’est sa fameuse thèse de la « banalité du mal » : le mal absolu peut être perpétré par des gens ordinaires qui « ne font que suivre les procédures ».

    Aujourd’hui, nous créons quelque chose de pire : le mal algorithmique. Des systèmes qui discriminent, qui nuisent, qui tuent, sans qu’aucun humain ne se sente responsable.

    Amazon a dû abandonner une IA de recrutement qui éliminait systématiquement les femmes. Pourquoi ? Parce qu’elle avait « appris » sur des données historiques biaisées.

    Des algorithmes de prédiction criminelle aux États-Unis condamnent deux fois plus les Noirs que les Blancs pour des crimes identiques.

    Des IA médicales recommandent des traitements erronés, avec des conséquences fatales.

    Qui est responsable ? Le data scientist qui a entraîné le modèle ? Le manager qui l’a déployé ? Le CEO qui voulait « automatiser pour réduire les coûts » ?

    Réponse : tout le monde et personne. C’est le problème.

    L’éthique véritable nécessite un sujet moral : un JE qui dit « j’ai choisi, j’assume, je réponds de mes actes ». L’algorithme n’a pas de JE. Il optimise une fonction. Point.

    Comme l’écrit Kate Crawford dans « Atlas of AI » : derrière chaque « décision IA », il y a des choix humains : quelles données collecter, quel objectif optimiser, quels biais accepter.

    Nous devons arrêter de nous cacher derrière l’algorithme.

    Le code n’a pas d’éthique. Nous, si.

    Ou du moins, nous le devrions.


    Sources :

    • Hannah Arendt – « Eichmann in Jerusalem: A Report on the Banality of Evil » (1963)
    • Kate Crawford – « Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence » (2021)
  • L’illusion de la compréhension algorithmique

    L’illusion de la compréhension algorithmique

    Imaginez quelqu’un qui parle parfaitement français sans avoir jamais compris un seul mot. Impossible ? C’est pourtant exactement ce que fait l’IA.

    En 1980, le philosophe John Searle propose l’expérience de pensée de la « Chambre Chinoise » : enfermez quelqu’un qui ne parle pas chinois dans une pièce, donnez-lui un manuel parfait de manipulation de symboles chinois. De l’extérieur, cette personne semble comprendre le chinois. De l’intérieur ? Elle ne fait que suivre mécaniquement des règles.

    C’est exactement l’IA.

    Elle manipule des tokens, calcule des probabilités, génère des réponses statistiquement cohérentes. Mais elle n’accède jamais au SENS. Elle n’a pas de modèle mental du monde, pas d’expérience vécue, pas de contexte existentiel.

    Douglas Hofstadter, dans « Gödel, Escher, Bach », va plus loin : la compréhension véritable émerge de boucles étranges, de connexions entre niveaux de réalité, de l’expérience corporelle et émotionnelle. L’IA n’a ni corps ni émotion.

    Résultat ? Elle rate systématiquement l’ironie, le second degré, les non-dits culturels. Elle vous dira que « je vais bien » exprime 87% de sentiment positif, sans capter que le ton, le contexte, le silence qui suit hurlent le contraire.

    Un exemple concret : demandez à une IA de comprendre « C’est malin ! » dans une conversation. Compliment ou reproche ? Impossible de savoir sans le contexte social, relationnel, historique. L’humain le sait instantanément.

    Parce que comprendre n’est pas décoder. C’est habiter le langage, pas le manipuler.

    L’IA excelle à traiter du langage. L’humain excelle à vivre dedans.

    Nuance essentielle.


    Sources:

    • John Searle – « Minds, Brains and Programs » (1980)
    • Douglas Hofstadter – « Gödel, Escher, Bach: An Eternal Golden Braid » (1979), « I Am a Strange Loop » (2007)
    • Ludwig Wittgenstein – « Philosophical Investigations » (1953)
    • George Lakoff & Mark Johnson – « Metaphors We Live By » (1980)
    • Hubert Dreyfus – « What Computers Still Can’t Do » (1972)
    • Ray Jackendoff – « Foundations of Language » (2002)
  • La créativité algorithmique n’existe pas

    La créativité algorithmique n’existe pas

    On nous vend des « IA créatives ». Des générateurs d’images « artistiques ». Des compositeurs virtuels « innovants ».

    Mensonge.

    L’IA générative ne crée rien. Elle recombine. Elle interpole. Elle optimise des patterns existants avec une sophistication hallucinante, certes, mais elle reste prisonnière de son corpus d’apprentissage.

    Margaret Boden, chercheuse en créativité computationnelle, distingue trois types de créativité :

    • combinatoire (associer des idées existantes),
    • exploratoire (explorer un espace conceptuel connu),
    • transformationnelle (changer les règles mêmes du jeu).

    L’IA excelle dans les deux premiers. Le troisième lui est inaccessible. Pourquoi ? Parce qu’il nécessite de l’intention, de la transgression consciente, de l’absurdité voulue.

    En 1917, Marcel Duchamp prend un urinoir de série, le signe « R. Mutt », et l’expose comme œuvre d’art. « Fontaine » bouleverse pour toujours notre conception de l’art. Ce n’est pas une belle combinaison d’éléments existants. C’est un geste conceptuel radical qui nie toute définition antérieure de l’art.

    Picasso fracture les visages en « Les Demoiselles d’Avignon ». Stravinsky provoque une émeute avec « Le Sacre du Printemps ». Ces créations ne sont pas optimales. Elles sont disruptives, dérangeantes, « fausses » selon les critères de leur époque.

    Camus le dit magnifiquement : « L’homme est la seule créature qui refuse d’être ce qu’elle est. » Cette révolte ontologique est le moteur de la vraie créativité.

    L’IA peut générer une œuvre « à la manière de Picasso ». Mais elle n’aurait jamais pu ÊTRE Picasso, car elle n’aurait jamais eu l’audace de casser toutes les règles qu’elle venait d’apprendre.

    La créativité véritable n’est pas une optimisation. C’est une rupture.

    Et seul l’humain ose vraiment rompre.


    Sources citées :

    • Albert Camus – « Le Mythe de Sisyphe » (1942) et « L’Homme révolté » (1951)
    • Margaret Boden – « The Creative Mind: Myths and Mechanisms » (2004)
    • Marcel Duchamp – « Fontaine » (1917)

    Sources complémentaires :

    • Arthur Koestler – « The Act of Creation » (1964)
    • Picasso – « Les Demoiselles d’Avignon » (1907)
    • Igor Stravinsky – « Le Sacre du Printemps » (1913)
    • Edward de Bono – « Lateral Thinking » (1970)
  • L’empathie algorithmique : le grand mensonge confortable

    L’empathie algorithmique : le grand mensonge confortable

    Les entreprises tech nous promettent des chatbots « empathiques », des IA « à l’écoute », des assistants virtuels qui « comprennent nos émotions ».

    Bullshit.

    L’empathie, ce n’est pas détecter que quelqu’un utilise le mot « triste » trois fois dans une phrase et répondre avec un template pré-programmé de compassion artificielle.

    Daniel Goleman, celui-là même qui a popularisé le concept d’intelligence émotionnelle, identifie trois composantes de l’empathie véritable :

    • l’empathie cognitive (comprendre la perspective de l’autre),
    • l’empathie émotionnelle (ressentir ce que l’autre ressent),
    • la préoccupation empathique (être poussé à agir pour aider).

    L’IA peut simuler la première. Maladroitement.

    Mais les deux autres ? Impossible.

    Parce qu’elles nécessitent d’avoir un corps, une histoire, des blessures, une conscience.

    Brené Brown, chercheuse sur la vulnérabilité et le leadership authentique, enfonce le clou : l’empathie nécessite la vulnérabilité. Elle nécessite d’accepter de ne pas avoir de réponse parfaite, de s’asseoir dans l’inconfort avec l’autre, de dire « je ne sais pas quoi dire, mais je suis là ».

    Un algorithme ne peut pas être vulnérable. Il ne risque rien. Il n’a rien à perdre.

    J’ai vécu des moments où un simple regard, un silence partagé, valait mille mots. Où la présence de quelqu’un qui ne disait rien mais qui ÉTAIT là changeait tout.

    L’IA peut vous donner des conseils. Elle peut analyser votre ton de voix, détecter votre stress, vous suggérer une pause.

    Mais elle ne peut pas s’asseoir à côté de vous dans la boue et vous dire : « moi aussi, j’ai connu ça ».

    L’empathie n’est pas un traitement de données. C’est une résonance entre deux consciences.

    Et ça, aucun code ne le reproduira jamais.


    Sources citées :

    • Daniel Goleman – « Emotional Intelligence: Why It Can Matter More Than IQ » (1995)
      • Les trois types d’empathie : cognitive, émotionnelle, préoccupation empathique
    • Brené Brown – « Dare to Lead » (2018) et recherches sur la vulnérabilité

    Sources complémentaires :

    • JAMA Psychiatry (2023) – Études comparatives chatbots vs thérapeutes humains
    • Paul Ekman – « Emotions Revealed » (2003) – reconnaissance vs ressenti des émotions
    • Carl Rogers – « On Becoming a Person » (1961) – empathie thérapeutique authentique
    • Antonio Damasio – « Descartes’ Error » (1994) – le rôle du corps dans l’émotion
  • L’intuition : ce super-pouvoir que l’IA n’aura jamais

    L’intuition : ce super-pouvoir que l’IA n’aura jamais

    J’ai un ami chirurgien qui m’a raconté cette histoire : en pleine opération de routine, il a senti que quelque chose n’allait pas. Rien dans les moniteurs, rien d’anormal sur le plan technique. Juste… un malaise. Il a creusé, insisté, et découvert une complication rare qui aurait pu être fatale à son patient.

    L’intuition.

    Ce n’est pas de la magie. C’est ce que les scientifiques appellent « l’intuition experte » : des années d’expérience compressées en un éclair de reconnaissance. Daniel Kahneman, dans son magistral « Thinking, Fast and Slow », explique que notre cerveau possède deux systèmes : le Système 1 (rapide, intuitif, émotionnel) et le Système 2 (lent, analytique, rationnel).

    L’IA ? Elle n’a qu’un Système 2 sur-dopé. Elle analyse, calcule, optimise. Mais elle ne « sent » rien.

    Nassim Nicholas Taleb enfonce le clou : dans son concept d’antifragilité, il démontre que face à l’incertitude radicale, face aux événements improbables (les fameux « cygnes noirs »), l’intuition humaine surpasse tous les modèles prédictifs. Pourquoi ? Parce qu’elle intègre ce que les données ne peuvent pas : l’expérience du chaos, la mémoire du corps, les signaux faibles imperceptibles.

    Un algorithme vous dira : « basé sur 10 millions de cas similaires, la probabilité est de 0,001% ». Votre intuition vous dira : « cette fois, c’est différent ».

    Et souvent, elle aura raison.

    Parce que l’intuition humaine n’est pas irrationnelle. Elle est supra-rationnelle : elle intègre des variables que nous ne savons même pas nommer.

    L’IA optimise ce qui est mesurable. L’humain navigue ce qui est essentiel.

    Je ne dis pas qu’il faut ignorer les données. Je dis qu’il faut aussi savoir les ignorer quand votre expérience vous crie de le faire.

    C’est ça, l’intelligence véritable.


    Sources :

  • L’IA et l’humain : démystifions le bullshit

    L’IA et l’humain : démystifions le bullshit

    Depuis quelques années, une nouvelle race de gourous a envahi nos flux LinkedIn et nos conférences : les « experts en IA ». Leur promesse ? L’intelligence artificielle va remplacer l’humain dans tous les domaines. Leur crédibilité ? Souvent inversement proportionnelle à leur bruit médiatique.

    Soyons clairs : l’IA actuelle, aussi impressionnante soit-elle techniquement, ne « pense » pas. Elle prédit, elle calcule, elle optimise des patterns dans des données massives. Mais elle ne comprend pas, elle ne ressent pas, elle n’imagine pas vraiment.

    Douglas Hofstadter, ce brillant penseur qui a exploré les liens entre mathématiques, conscience et créativité dans « Gödel, Escher, Bach », nous rappelle que la conscience humaine reste un mystère profond. L’IA peut imiter certains résultats de cette conscience, mais elle n’en possède pas la substance.

    Ce qui est véritablement révolutionnaire, c’est l’accessibilité. Un entrepreneur seul peut désormais prototyper une application sans coder. Un designer indépendant peut produire comme une agence de dix personnes. Un écrivain peut explorer des idées à une vitesse inédite.

    L’IA démocratise les outils qui étaient réservés aux grandes organisations. Elle amplifie notre créativité, elle accélère nos processus, elle nous libère des tâches répétitives.

    Mais elle ne nous remplace pas.

    Le Putain de Facteur Humain (pour reprendre une notion que j’ai déjà explorée ici) reste irremplaçable : notre capacité à douter, à questionner, à ressentir, à créer du sens dans l’absurde.

    Alors oui, apprenons à utiliser ces outils. Mais non, ne gobons pas le discours des charlatans qui nous promettent que la machine fera tout à notre place.

    L’honnêteté intellectuelle, ça commence par là.


    Sources citées :

    Sources complémentaires :

  • Le panier pourri : quand les gens ordinaires tuent

    Le panier pourri : quand les gens ordinaires tuent

    Vous pensez que vous ne tuerez jamais ?

    L’histoire n’est pas d’accord.

    En 1971, Philip Zimbardo recrute des étudiants ordinaires à Stanford — psychologiquement stables, pas de tendances violentes — pour une simulation de prison. Assignation aléatoire : gardiens ou prisonniers.

    Résultat ? En 36 heures, le premier prisonnier a un effondrement émotionnel. En 6 jours, Zimbardo arrête tout. Les gardiens sont devenus sadiques. Les prisonniers, déshumanisés.

    Zimbardo écrit plus tard dans The Lucifer Effect : « Ce ne sont pas les pommes pourries. C’est le panier. »

    Autrement dit : le contexte compte plus que la personnalité.

    Ce n’est pas théorique.

    1947, Partition de l’Inde. Voisins hindous, sikhs et musulmans vivaient ensemble depuis des siècles. Une ligne tracée sur une carte — « vous êtes maintenant en Inde, vous en Pakistan » — et le massacre commence.

    1 à 2 millions de morts. 15 millions de déplacés — la plus grande migration forcée de l’histoire. Pourquoi ? Parce qu’une frontière a changé qui était « nous » et qui était « eux ».

    Rwanda, 1994 : 800 000 morts en 100 jours. Des voisins tuant des voisins. Des enseignants tuant leurs élèves.

    Shoah, 1940s : 6 millions de Juifs. Des « gens ordinaires » devenant des bourreaux.

    Encore et encore, l’histoire nous montre la même chose : des gens ordinaires, dans des contextes tribaux extrêmes, deviennent des tueurs.

    Ce ne sont pas des monstres. Ce sont des humains. Comme nous.

    Comme le dit Zimbardo : nous sommes tous capables du bien et du mal. Ce qui détermine lequel ? Le contexte.

    Alors, quel contexte créons-nous ?


    SOURCES

  • Les mots qui tuent : comment le langage crée l’ennemi

    Les mots qui tuent : comment le langage crée l’ennemi

    Le langage ne reflète pas seulement la division. Il la crée.

    Victor Klemperer était philologue à Dresde. Juif. Marié à une « Aryenne », ce qui lui a sauvé la vie. Pendant 12 ans, il a tenu un journal secret, documentant comment le nazisme a transformé la langue allemande.

    Son livre, LTI – Lingua Tertii Imperii (« La Langue du IIIe Reich »), révèle une vérité terrifiante : le nazisme n’a pas inventé de nouveaux mots. Il a changé leur sens.

    « Fanatique » est devenu une vertu. « Lutte » (Kampf) un devoir. Les Juifs sont devenus « Untermenschen » — sous-humains. Des parasites. De la vermine.

    Klemperer écrit : « Ce n’est pas seulement les actions nazies qui doivent disparaître, mais aussi la mentalité nazie, la façon de penser nazie, et son terrain fertile : la langue du nazisme. »

    George Orwell a capturé la même idée dans Politics and the English Language (1946) : « Le langage politique est conçu pour faire paraître les mensonges véridiques, le meurtre respectable, et donner une apparence de solidité au vent pur. »

    Ce n’est pas de l’histoire ancienne.

    Avant le génocide rwandais de 1994, les Tutsis étaient systématiquement appelés « cafards » (inyenzi) à la radio. Avant chaque massacre, les mots déshumanisent d’abord.

    Pourquoi ? Parce qu’il est difficile de tuer un humain. Il faut de la distance morale. Mais un « cafard » ? Un « parasite » ? Facile. Le langage supprime l’impératif moral de ne pas tuer.

    Alors oui, nos cerveaux sont tribaux. Les algorithmes amplifient. Les médias profitent.

    Mais le langage — les mots que nous choisissons — c’est l’arme finale.

    Parce que quand on change les mots, on change les ennemis.


    SOURCES

  • Suivez l’argent : qui gagne quand on est divisés ?

    Suivez l’argent : qui gagne quand on est divisés ?

    On a parlé de notre cerveau tribal. On a parlé des algorithmes qui nous divisent.

    Maintenant, parlons de ceux qui en profitent.

    Parce que la division, c’est rentable.

    Commençons par les médias. Une analyse des journaux américains montre qu’entre 10 et 30% des titres parlent de crime et de peur. Pourquoi ? Parce que « la peur vend. »

    Le crime aux États-Unis a baissé de façon spectaculaire depuis 30 ans. Mais les médias ne vous le diront pas. Pourquoi ? Parce qu’un monde plus sûr ne fait pas cliquer. Un monde dangereux, oui.

    Ensuite, les réseaux sociaux. On l’a vu hier : l’algorithme maximise l’engagement, pas votre bien-être. Chaque mot de colère morale ajouté à un tweet augmente les retweets de 17%. La colère est l’émotion qui voyage le plus vite en ligne.

    Une étude de Tulane University révèle même un effet pervers : les utilisateurs engagent davantage avec du contenu qui contredit leurs opinions. Pourquoi ? Parce que ça les met en rage. Et la rage, ça fait scroller.

    Enfin, les influenceurs et marketeurs. L’ »outrage marketing » est devenu une stratégie délibérée. Créer la controverse pour générer de l’engagement. Diviser pour régner. Et pendant que vous vous battez en commentaires, quelqu’un vend de la pub.

    Alors oui, on peut blâmer notre cerveau. On peut blâmer les algorithmes.

    Mais il faut surtout blâmer ceux qui monétisent notre colère.

    Parce que tant que vous êtes divisé, quelqu’un fait du cash.


    SOURCES

  • Les marchands de la colère : comment les algorithmes nous divisent

    Les marchands de la colère : comment les algorithmes nous divisent

    Les réseaux sociaux ne sont pas neutres. Ils sont des machines à diviser.

    Pourquoi ? Parce que la division est rentable.

    Une étude du MIT, portant sur 126 000 rumeurs diffusées sur Twitter entre 2006 et 2017, révèle une vérité terrifiante : les fausses nouvelles voyagent 6 fois plus vite que la vérité et sont 70% plus susceptibles d’être partagées.

    Pourquoi ? Parce qu’elles sont plus « nouvelles », plus choquantes, plus émotionnelles. Elles activent nos amygdales (souvenir du Jour 2). Peur, dégoût, surprise — voilà ce qui fait cliquer.

    Et les algorithmes l’ont compris.

    Tristan Harris, ancien « Design Ethicist » chez Google et cofondateur du Center for Humane Technology, dénonce cette mécanique implacable. Les plateformes sociales — Facebook, Twitter, YouTube — ne maximisent pas votre bonheur. Elles maximisent votre engagement.

    Plus vous êtes en colère, plus vous scrollez. Plus vous scrollez, plus ils vendent de pub.

    Résultat ? L’algorithme vous sert ce qui vous met en rage. Il amplifie le conflit, écrase la nuance, transforme chaque débat en guerre tribale.

    Harris le dit clairement : « Vous n’êtes pas le client. Vous êtes le produit. »

    Le vrai client ? Les annonceurs. Et ce qu’ils achètent, c’est votre attention. Plus longtemps vous restez scotché, plus ils paient.

    C’est pour ça que votre fil d’actualité ressemble à un champ de bataille. Pas par hasard. Par design.

    Alors oui, on peut blâmer notre cerveau tribal. Mais il faut surtout blâmer ceux qui exploitent ce câblage pour faire du fric.

    Parce que tant que vous êtes en colère, quelqu’un gagne de l’argent.


    SOURCES