• L’IA ne doute jamais. C’est son plus gros défaut.

    L’IA ne doute jamais. C’est son plus gros défaut.

    Demandez à ChatGPT n’importe quelle question. Il vous répondra avec aplomb, structure, références (parfois inventées).

    Demandez-lui : « Es-tu sûr de ta réponse ? » Il vous dira oui, avec des nuances prudentes mais rassurantes.

    Demandez-lui : « Et si tu avais complètement tort ? » Il reconnaîtra la possibilité théorique, mais ne DOUTERA jamais vraiment.

    Parce que douter nécessite une conscience de ses propres limites. Et l’IA n’a pas de conscience.

    Richard Feynman, ce génie espiègle de la physique quantique, répétait : « Le premier principe est que vous ne devez pas vous tromper vous-même — et vous êtes la personne la plus facile à tromper. »

    L’humain peut se tromper, mais il peut aussi SE SAVOIR en train de se tromper. Il peut douter, remettre en question, chercher activement à falsifier ses propres croyances.

    L’IA ? Elle produit du contenu plausible. Point. Elle n’a aucun mécanisme interne de doute critique.

    Carl Sagan nous a légué le « Baloney Detection Kit » : des outils intellectuels pour débusquer le bullshit. Parmi eux : le rasoir d’Occam, la demande de preuves réplicables, la méfiance envers les arguments d’autorité. J’y reviendrai…

    L’IA fait exactement le contraire : elle utilise des arguments d’autorité (« selon des études »), elle génère des références qui n’existent pas, elle ne vérifie rien.

    Karl Popper nous rappelle que la science progresse par réfutabilité : on cherche activement à prouver qu’on a tort.

    L’IA ne cherche jamais à se réfuter. Elle optimise pour convaincre, pas pour dire la vérité.

    La curiosité véritable n’est pas « trouver des réponses ». C’est « poser les bonnes questions, surtout celles qui nous dérangent ».

    L’IA donne des réponses. Seul l’humain ose vraiment questionner.


    Sources :

  • L’humain, champion du monde du « few-shot learning »

    L’humain, champion du monde du « few-shot learning »

    Les chercheurs en IA sont fiers d’annoncer que leurs modèles peuvent faire du « few-shot learning » : apprendre avec quelques exemples seulement.

    Quelques exemples ? Genre 5, 10, 50 ?

    Pour le moment, tout ceci est pathétique comparé à un enfant humain (et cela changera dans le futur, bien sûr).

    Montrez un chat à un enfant de 3 ans. Une seule fois. Ensuite, il reconnaît tous les chats : persans, siamois, tigres, lions, dessins animés de chats, sculptures de chats. Il généralise instantanément le concept.

    ChatGPT-4 ? Il a ingéré des millions (milliards ?) d’images avant de pouvoir identifier un chat. Et même après, montrez-lui un chat stylisé, en origami, en ombre chinoise, il peut échouer.

    Pourquoi cette différence hallucinante ?

    Parce que l’apprentissage humain n’est pas basé sur la mémorisation de patterns statistiques. Il est basé sur la construction de MODÈLES CONCEPTUELS du monde.

    Steven Pinker, dans « The Blank Slate », démontre que nous ne sommes pas des ardoises vierges. Nous naissons avec des structures cognitives innées — grammaire universelle, physique intuitive, psychologie naïve — qui nous permettent d’apprendre de façon explosive.

    Un enfant apprend le concept de « cassé » et l’applique instantanément à des milliers d’objets jamais rencontrés : verre cassé, jouet cassé, cœur cassé.

    L’IA ? Elle doit être réentraînée pour chaque nouveau domaine. Le « transfer learning » de l’IA est une blague comparé au transfert conceptuel humain.

    Yuval Noah Harari note dans « Sapiens » que notre capacité à créer et manipuler des abstractions — à apprendre des concepts, pas des exemples — est ce qui nous a permis de dominer la planète.

    L’IA apprend à reproduire. L’humain apprend à comprendre.

    Nuance gigantesque.


    Sources :

  • La banalité du mal algorithmique

    La banalité du mal algorithmique

    En 1961, Hannah Arendt assiste au procès d’Adolf Eichmann, architecte logistique de la Shoah. Elle s’attend à rencontrer un monstre. Elle découvre un bureaucrate médiocre qui obéissait aux ordres.

    C’est sa fameuse thèse de la « banalité du mal » : le mal absolu peut être perpétré par des gens ordinaires qui « ne font que suivre les procédures ».

    Aujourd’hui, nous créons quelque chose de pire : le mal algorithmique. Des systèmes qui discriminent, qui nuisent, qui tuent, sans qu’aucun humain ne se sente responsable.

    Amazon a dû abandonner une IA de recrutement qui éliminait systématiquement les femmes. Pourquoi ? Parce qu’elle avait « appris » sur des données historiques biaisées.

    Des algorithmes de prédiction criminelle aux États-Unis condamnent deux fois plus les Noirs que les Blancs pour des crimes identiques.

    Des IA médicales recommandent des traitements erronés, avec des conséquences fatales.

    Qui est responsable ? Le data scientist qui a entraîné le modèle ? Le manager qui l’a déployé ? Le CEO qui voulait « automatiser pour réduire les coûts » ?

    Réponse : tout le monde et personne. C’est le problème.

    L’éthique véritable nécessite un sujet moral : un JE qui dit « j’ai choisi, j’assume, je réponds de mes actes ». L’algorithme n’a pas de JE. Il optimise une fonction. Point.

    Comme l’écrit Kate Crawford dans « Atlas of AI » : derrière chaque « décision IA », il y a des choix humains : quelles données collecter, quel objectif optimiser, quels biais accepter.

    Nous devons arrêter de nous cacher derrière l’algorithme.

    Le code n’a pas d’éthique. Nous, si.

    Ou du moins, nous le devrions.


    Sources :

    • Hannah Arendt – « Eichmann in Jerusalem: A Report on the Banality of Evil » (1963)
    • Kate Crawford – « Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence » (2021)
  • L’illusion de la compréhension algorithmique

    L’illusion de la compréhension algorithmique

    Imaginez quelqu’un qui parle parfaitement français sans avoir jamais compris un seul mot. Impossible ? C’est pourtant exactement ce que fait l’IA.

    En 1980, le philosophe John Searle propose l’expérience de pensée de la « Chambre Chinoise » : enfermez quelqu’un qui ne parle pas chinois dans une pièce, donnez-lui un manuel parfait de manipulation de symboles chinois. De l’extérieur, cette personne semble comprendre le chinois. De l’intérieur ? Elle ne fait que suivre mécaniquement des règles.

    C’est exactement l’IA.

    Elle manipule des tokens, calcule des probabilités, génère des réponses statistiquement cohérentes. Mais elle n’accède jamais au SENS. Elle n’a pas de modèle mental du monde, pas d’expérience vécue, pas de contexte existentiel.

    Douglas Hofstadter, dans « Gödel, Escher, Bach », va plus loin : la compréhension véritable émerge de boucles étranges, de connexions entre niveaux de réalité, de l’expérience corporelle et émotionnelle. L’IA n’a ni corps ni émotion.

    Résultat ? Elle rate systématiquement l’ironie, le second degré, les non-dits culturels. Elle vous dira que « je vais bien » exprime 87% de sentiment positif, sans capter que le ton, le contexte, le silence qui suit hurlent le contraire.

    Un exemple concret : demandez à une IA de comprendre « C’est malin ! » dans une conversation. Compliment ou reproche ? Impossible de savoir sans le contexte social, relationnel, historique. L’humain le sait instantanément.

    Parce que comprendre n’est pas décoder. C’est habiter le langage, pas le manipuler.

    L’IA excelle à traiter du langage. L’humain excelle à vivre dedans.

    Nuance essentielle.


    Sources:

    • John Searle – « Minds, Brains and Programs » (1980)
    • Douglas Hofstadter – « Gödel, Escher, Bach: An Eternal Golden Braid » (1979), « I Am a Strange Loop » (2007)
    • Ludwig Wittgenstein – « Philosophical Investigations » (1953)
    • George Lakoff & Mark Johnson – « Metaphors We Live By » (1980)
    • Hubert Dreyfus – « What Computers Still Can’t Do » (1972)
    • Ray Jackendoff – « Foundations of Language » (2002)
  • La créativité algorithmique n’existe pas

    La créativité algorithmique n’existe pas

    On nous vend des « IA créatives ». Des générateurs d’images « artistiques ». Des compositeurs virtuels « innovants ».

    Mensonge.

    L’IA générative ne crée rien. Elle recombine. Elle interpole. Elle optimise des patterns existants avec une sophistication hallucinante, certes, mais elle reste prisonnière de son corpus d’apprentissage.

    Margaret Boden, chercheuse en créativité computationnelle, distingue trois types de créativité :

    • combinatoire (associer des idées existantes),
    • exploratoire (explorer un espace conceptuel connu),
    • transformationnelle (changer les règles mêmes du jeu).

    L’IA excelle dans les deux premiers. Le troisième lui est inaccessible. Pourquoi ? Parce qu’il nécessite de l’intention, de la transgression consciente, de l’absurdité voulue.

    En 1917, Marcel Duchamp prend un urinoir de série, le signe « R. Mutt », et l’expose comme œuvre d’art. « Fontaine » bouleverse pour toujours notre conception de l’art. Ce n’est pas une belle combinaison d’éléments existants. C’est un geste conceptuel radical qui nie toute définition antérieure de l’art.

    Picasso fracture les visages en « Les Demoiselles d’Avignon ». Stravinsky provoque une émeute avec « Le Sacre du Printemps ». Ces créations ne sont pas optimales. Elles sont disruptives, dérangeantes, « fausses » selon les critères de leur époque.

    Camus le dit magnifiquement : « L’homme est la seule créature qui refuse d’être ce qu’elle est. » Cette révolte ontologique est le moteur de la vraie créativité.

    L’IA peut générer une œuvre « à la manière de Picasso ». Mais elle n’aurait jamais pu ÊTRE Picasso, car elle n’aurait jamais eu l’audace de casser toutes les règles qu’elle venait d’apprendre.

    La créativité véritable n’est pas une optimisation. C’est une rupture.

    Et seul l’humain ose vraiment rompre.


    Sources citées :

    • Albert Camus – « Le Mythe de Sisyphe » (1942) et « L’Homme révolté » (1951)
    • Margaret Boden – « The Creative Mind: Myths and Mechanisms » (2004)
    • Marcel Duchamp – « Fontaine » (1917)

    Sources complémentaires :

    • Arthur Koestler – « The Act of Creation » (1964)
    • Picasso – « Les Demoiselles d’Avignon » (1907)
    • Igor Stravinsky – « Le Sacre du Printemps » (1913)
    • Edward de Bono – « Lateral Thinking » (1970)
  • L’empathie algorithmique : le grand mensonge confortable

    L’empathie algorithmique : le grand mensonge confortable

    Les entreprises tech nous promettent des chatbots « empathiques », des IA « à l’écoute », des assistants virtuels qui « comprennent nos émotions ».

    Bullshit.

    L’empathie, ce n’est pas détecter que quelqu’un utilise le mot « triste » trois fois dans une phrase et répondre avec un template pré-programmé de compassion artificielle.

    Daniel Goleman, celui-là même qui a popularisé le concept d’intelligence émotionnelle, identifie trois composantes de l’empathie véritable :

    • l’empathie cognitive (comprendre la perspective de l’autre),
    • l’empathie émotionnelle (ressentir ce que l’autre ressent),
    • la préoccupation empathique (être poussé à agir pour aider).

    L’IA peut simuler la première. Maladroitement.

    Mais les deux autres ? Impossible.

    Parce qu’elles nécessitent d’avoir un corps, une histoire, des blessures, une conscience.

    Brené Brown, chercheuse sur la vulnérabilité et le leadership authentique, enfonce le clou : l’empathie nécessite la vulnérabilité. Elle nécessite d’accepter de ne pas avoir de réponse parfaite, de s’asseoir dans l’inconfort avec l’autre, de dire « je ne sais pas quoi dire, mais je suis là ».

    Un algorithme ne peut pas être vulnérable. Il ne risque rien. Il n’a rien à perdre.

    J’ai vécu des moments où un simple regard, un silence partagé, valait mille mots. Où la présence de quelqu’un qui ne disait rien mais qui ÉTAIT là changeait tout.

    L’IA peut vous donner des conseils. Elle peut analyser votre ton de voix, détecter votre stress, vous suggérer une pause.

    Mais elle ne peut pas s’asseoir à côté de vous dans la boue et vous dire : « moi aussi, j’ai connu ça ».

    L’empathie n’est pas un traitement de données. C’est une résonance entre deux consciences.

    Et ça, aucun code ne le reproduira jamais.


    Sources citées :

    • Daniel Goleman – « Emotional Intelligence: Why It Can Matter More Than IQ » (1995)
      • Les trois types d’empathie : cognitive, émotionnelle, préoccupation empathique
    • Brené Brown – « Dare to Lead » (2018) et recherches sur la vulnérabilité

    Sources complémentaires :

    • JAMA Psychiatry (2023) – Études comparatives chatbots vs thérapeutes humains
    • Paul Ekman – « Emotions Revealed » (2003) – reconnaissance vs ressenti des émotions
    • Carl Rogers – « On Becoming a Person » (1961) – empathie thérapeutique authentique
    • Antonio Damasio – « Descartes’ Error » (1994) – le rôle du corps dans l’émotion
  • L’intuition : ce super-pouvoir que l’IA n’aura jamais

    L’intuition : ce super-pouvoir que l’IA n’aura jamais

    J’ai un ami chirurgien qui m’a raconté cette histoire : en pleine opération de routine, il a senti que quelque chose n’allait pas. Rien dans les moniteurs, rien d’anormal sur le plan technique. Juste… un malaise. Il a creusé, insisté, et découvert une complication rare qui aurait pu être fatale à son patient.

    L’intuition.

    Ce n’est pas de la magie. C’est ce que les scientifiques appellent « l’intuition experte » : des années d’expérience compressées en un éclair de reconnaissance. Daniel Kahneman, dans son magistral « Thinking, Fast and Slow », explique que notre cerveau possède deux systèmes : le Système 1 (rapide, intuitif, émotionnel) et le Système 2 (lent, analytique, rationnel).

    L’IA ? Elle n’a qu’un Système 2 sur-dopé. Elle analyse, calcule, optimise. Mais elle ne « sent » rien.

    Nassim Nicholas Taleb enfonce le clou : dans son concept d’antifragilité, il démontre que face à l’incertitude radicale, face aux événements improbables (les fameux « cygnes noirs »), l’intuition humaine surpasse tous les modèles prédictifs. Pourquoi ? Parce qu’elle intègre ce que les données ne peuvent pas : l’expérience du chaos, la mémoire du corps, les signaux faibles imperceptibles.

    Un algorithme vous dira : « basé sur 10 millions de cas similaires, la probabilité est de 0,001% ». Votre intuition vous dira : « cette fois, c’est différent ».

    Et souvent, elle aura raison.

    Parce que l’intuition humaine n’est pas irrationnelle. Elle est supra-rationnelle : elle intègre des variables que nous ne savons même pas nommer.

    L’IA optimise ce qui est mesurable. L’humain navigue ce qui est essentiel.

    Je ne dis pas qu’il faut ignorer les données. Je dis qu’il faut aussi savoir les ignorer quand votre expérience vous crie de le faire.

    C’est ça, l’intelligence véritable.


    Sources :

  • L’IA et l’humain : démystifions le bullshit

    L’IA et l’humain : démystifions le bullshit

    Depuis quelques années, une nouvelle race de gourous a envahi nos flux LinkedIn et nos conférences : les « experts en IA ». Leur promesse ? L’intelligence artificielle va remplacer l’humain dans tous les domaines. Leur crédibilité ? Souvent inversement proportionnelle à leur bruit médiatique.

    Soyons clairs : l’IA actuelle, aussi impressionnante soit-elle techniquement, ne « pense » pas. Elle prédit, elle calcule, elle optimise des patterns dans des données massives. Mais elle ne comprend pas, elle ne ressent pas, elle n’imagine pas vraiment.

    Douglas Hofstadter, ce brillant penseur qui a exploré les liens entre mathématiques, conscience et créativité dans « Gödel, Escher, Bach », nous rappelle que la conscience humaine reste un mystère profond. L’IA peut imiter certains résultats de cette conscience, mais elle n’en possède pas la substance.

    Ce qui est véritablement révolutionnaire, c’est l’accessibilité. Un entrepreneur seul peut désormais prototyper une application sans coder. Un designer indépendant peut produire comme une agence de dix personnes. Un écrivain peut explorer des idées à une vitesse inédite.

    L’IA démocratise les outils qui étaient réservés aux grandes organisations. Elle amplifie notre créativité, elle accélère nos processus, elle nous libère des tâches répétitives.

    Mais elle ne nous remplace pas.

    Le Putain de Facteur Humain (pour reprendre une notion que j’ai déjà explorée ici) reste irremplaçable : notre capacité à douter, à questionner, à ressentir, à créer du sens dans l’absurde.

    Alors oui, apprenons à utiliser ces outils. Mais non, ne gobons pas le discours des charlatans qui nous promettent que la machine fera tout à notre place.

    L’honnêteté intellectuelle, ça commence par là.


    Sources citées :

    Sources complémentaires :

  • Le panier pourri : quand les gens ordinaires tuent

    Le panier pourri : quand les gens ordinaires tuent

    Vous pensez que vous ne tuerez jamais ?

    L’histoire n’est pas d’accord.

    En 1971, Philip Zimbardo recrute des étudiants ordinaires à Stanford — psychologiquement stables, pas de tendances violentes — pour une simulation de prison. Assignation aléatoire : gardiens ou prisonniers.

    Résultat ? En 36 heures, le premier prisonnier a un effondrement émotionnel. En 6 jours, Zimbardo arrête tout. Les gardiens sont devenus sadiques. Les prisonniers, déshumanisés.

    Zimbardo écrit plus tard dans The Lucifer Effect : « Ce ne sont pas les pommes pourries. C’est le panier. »

    Autrement dit : le contexte compte plus que la personnalité.

    Ce n’est pas théorique.

    1947, Partition de l’Inde. Voisins hindous, sikhs et musulmans vivaient ensemble depuis des siècles. Une ligne tracée sur une carte — « vous êtes maintenant en Inde, vous en Pakistan » — et le massacre commence.

    1 à 2 millions de morts. 15 millions de déplacés — la plus grande migration forcée de l’histoire. Pourquoi ? Parce qu’une frontière a changé qui était « nous » et qui était « eux ».

    Rwanda, 1994 : 800 000 morts en 100 jours. Des voisins tuant des voisins. Des enseignants tuant leurs élèves.

    Shoah, 1940s : 6 millions de Juifs. Des « gens ordinaires » devenant des bourreaux.

    Encore et encore, l’histoire nous montre la même chose : des gens ordinaires, dans des contextes tribaux extrêmes, deviennent des tueurs.

    Ce ne sont pas des monstres. Ce sont des humains. Comme nous.

    Comme le dit Zimbardo : nous sommes tous capables du bien et du mal. Ce qui détermine lequel ? Le contexte.

    Alors, quel contexte créons-nous ?


    SOURCES

  • Les mots qui tuent : comment le langage crée l’ennemi

    Les mots qui tuent : comment le langage crée l’ennemi

    Le langage ne reflète pas seulement la division. Il la crée.

    Victor Klemperer était philologue à Dresde. Juif. Marié à une « Aryenne », ce qui lui a sauvé la vie. Pendant 12 ans, il a tenu un journal secret, documentant comment le nazisme a transformé la langue allemande.

    Son livre, LTI – Lingua Tertii Imperii (« La Langue du IIIe Reich »), révèle une vérité terrifiante : le nazisme n’a pas inventé de nouveaux mots. Il a changé leur sens.

    « Fanatique » est devenu une vertu. « Lutte » (Kampf) un devoir. Les Juifs sont devenus « Untermenschen » — sous-humains. Des parasites. De la vermine.

    Klemperer écrit : « Ce n’est pas seulement les actions nazies qui doivent disparaître, mais aussi la mentalité nazie, la façon de penser nazie, et son terrain fertile : la langue du nazisme. »

    George Orwell a capturé la même idée dans Politics and the English Language (1946) : « Le langage politique est conçu pour faire paraître les mensonges véridiques, le meurtre respectable, et donner une apparence de solidité au vent pur. »

    Ce n’est pas de l’histoire ancienne.

    Avant le génocide rwandais de 1994, les Tutsis étaient systématiquement appelés « cafards » (inyenzi) à la radio. Avant chaque massacre, les mots déshumanisent d’abord.

    Pourquoi ? Parce qu’il est difficile de tuer un humain. Il faut de la distance morale. Mais un « cafard » ? Un « parasite » ? Facile. Le langage supprime l’impératif moral de ne pas tuer.

    Alors oui, nos cerveaux sont tribaux. Les algorithmes amplifient. Les médias profitent.

    Mais le langage — les mots que nous choisissons — c’est l’arme finale.

    Parce que quand on change les mots, on change les ennemis.


    SOURCES