Catégorie : Idées

  • La banalité du mal algorithmique

    La banalité du mal algorithmique

    En 1961, Hannah Arendt assiste au procès d’Adolf Eichmann, architecte logistique de la Shoah. Elle s’attend à rencontrer un monstre. Elle découvre un bureaucrate médiocre qui obéissait aux ordres.

    C’est sa fameuse thèse de la « banalité du mal » : le mal absolu peut être perpétré par des gens ordinaires qui « ne font que suivre les procédures ».

    Aujourd’hui, nous créons quelque chose de pire : le mal algorithmique. Des systèmes qui discriminent, qui nuisent, qui tuent, sans qu’aucun humain ne se sente responsable.

    Amazon a dû abandonner une IA de recrutement qui éliminait systématiquement les femmes. Pourquoi ? Parce qu’elle avait « appris » sur des données historiques biaisées.

    Des algorithmes de prédiction criminelle aux États-Unis condamnent deux fois plus les Noirs que les Blancs pour des crimes identiques.

    Des IA médicales recommandent des traitements erronés, avec des conséquences fatales.

    Qui est responsable ? Le data scientist qui a entraîné le modèle ? Le manager qui l’a déployé ? Le CEO qui voulait « automatiser pour réduire les coûts » ?

    Réponse : tout le monde et personne. C’est le problème.

    L’éthique véritable nécessite un sujet moral : un JE qui dit « j’ai choisi, j’assume, je réponds de mes actes ». L’algorithme n’a pas de JE. Il optimise une fonction. Point.

    Comme l’écrit Kate Crawford dans « Atlas of AI » : derrière chaque « décision IA », il y a des choix humains : quelles données collecter, quel objectif optimiser, quels biais accepter.

    Nous devons arrêter de nous cacher derrière l’algorithme.

    Le code n’a pas d’éthique. Nous, si.

    Ou du moins, nous le devrions.


    Sources :

    • Hannah Arendt – « Eichmann in Jerusalem: A Report on the Banality of Evil » (1963)
    • Kate Crawford – « Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence » (2021)
  • L’illusion de la compréhension algorithmique

    L’illusion de la compréhension algorithmique

    Imaginez quelqu’un qui parle parfaitement français sans avoir jamais compris un seul mot. Impossible ? C’est pourtant exactement ce que fait l’IA.

    En 1980, le philosophe John Searle propose l’expérience de pensée de la « Chambre Chinoise » : enfermez quelqu’un qui ne parle pas chinois dans une pièce, donnez-lui un manuel parfait de manipulation de symboles chinois. De l’extérieur, cette personne semble comprendre le chinois. De l’intérieur ? Elle ne fait que suivre mécaniquement des règles.

    C’est exactement l’IA.

    Elle manipule des tokens, calcule des probabilités, génère des réponses statistiquement cohérentes. Mais elle n’accède jamais au SENS. Elle n’a pas de modèle mental du monde, pas d’expérience vécue, pas de contexte existentiel.

    Douglas Hofstadter, dans « Gödel, Escher, Bach », va plus loin : la compréhension véritable émerge de boucles étranges, de connexions entre niveaux de réalité, de l’expérience corporelle et émotionnelle. L’IA n’a ni corps ni émotion.

    Résultat ? Elle rate systématiquement l’ironie, le second degré, les non-dits culturels. Elle vous dira que « je vais bien » exprime 87% de sentiment positif, sans capter que le ton, le contexte, le silence qui suit hurlent le contraire.

    Un exemple concret : demandez à une IA de comprendre « C’est malin ! » dans une conversation. Compliment ou reproche ? Impossible de savoir sans le contexte social, relationnel, historique. L’humain le sait instantanément.

    Parce que comprendre n’est pas décoder. C’est habiter le langage, pas le manipuler.

    L’IA excelle à traiter du langage. L’humain excelle à vivre dedans.

    Nuance essentielle.


    Sources:

    • John Searle – « Minds, Brains and Programs » (1980)
    • Douglas Hofstadter – « Gödel, Escher, Bach: An Eternal Golden Braid » (1979), « I Am a Strange Loop » (2007)
    • Ludwig Wittgenstein – « Philosophical Investigations » (1953)
    • George Lakoff & Mark Johnson – « Metaphors We Live By » (1980)
    • Hubert Dreyfus – « What Computers Still Can’t Do » (1972)
    • Ray Jackendoff – « Foundations of Language » (2002)
  • La créativité algorithmique n’existe pas

    La créativité algorithmique n’existe pas

    On nous vend des « IA créatives ». Des générateurs d’images « artistiques ». Des compositeurs virtuels « innovants ».

    Mensonge.

    L’IA générative ne crée rien. Elle recombine. Elle interpole. Elle optimise des patterns existants avec une sophistication hallucinante, certes, mais elle reste prisonnière de son corpus d’apprentissage.

    Margaret Boden, chercheuse en créativité computationnelle, distingue trois types de créativité :

    • combinatoire (associer des idées existantes),
    • exploratoire (explorer un espace conceptuel connu),
    • transformationnelle (changer les règles mêmes du jeu).

    L’IA excelle dans les deux premiers. Le troisième lui est inaccessible. Pourquoi ? Parce qu’il nécessite de l’intention, de la transgression consciente, de l’absurdité voulue.

    En 1917, Marcel Duchamp prend un urinoir de série, le signe « R. Mutt », et l’expose comme œuvre d’art. « Fontaine » bouleverse pour toujours notre conception de l’art. Ce n’est pas une belle combinaison d’éléments existants. C’est un geste conceptuel radical qui nie toute définition antérieure de l’art.

    Picasso fracture les visages en « Les Demoiselles d’Avignon ». Stravinsky provoque une émeute avec « Le Sacre du Printemps ». Ces créations ne sont pas optimales. Elles sont disruptives, dérangeantes, « fausses » selon les critères de leur époque.

    Camus le dit magnifiquement : « L’homme est la seule créature qui refuse d’être ce qu’elle est. » Cette révolte ontologique est le moteur de la vraie créativité.

    L’IA peut générer une œuvre « à la manière de Picasso ». Mais elle n’aurait jamais pu ÊTRE Picasso, car elle n’aurait jamais eu l’audace de casser toutes les règles qu’elle venait d’apprendre.

    La créativité véritable n’est pas une optimisation. C’est une rupture.

    Et seul l’humain ose vraiment rompre.


    Sources citées :

    • Albert Camus – « Le Mythe de Sisyphe » (1942) et « L’Homme révolté » (1951)
    • Margaret Boden – « The Creative Mind: Myths and Mechanisms » (2004)
    • Marcel Duchamp – « Fontaine » (1917)

    Sources complémentaires :

    • Arthur Koestler – « The Act of Creation » (1964)
    • Picasso – « Les Demoiselles d’Avignon » (1907)
    • Igor Stravinsky – « Le Sacre du Printemps » (1913)
    • Edward de Bono – « Lateral Thinking » (1970)
  • L’empathie algorithmique : le grand mensonge confortable

    L’empathie algorithmique : le grand mensonge confortable

    Les entreprises tech nous promettent des chatbots « empathiques », des IA « à l’écoute », des assistants virtuels qui « comprennent nos émotions ».

    Bullshit.

    L’empathie, ce n’est pas détecter que quelqu’un utilise le mot « triste » trois fois dans une phrase et répondre avec un template pré-programmé de compassion artificielle.

    Daniel Goleman, celui-là même qui a popularisé le concept d’intelligence émotionnelle, identifie trois composantes de l’empathie véritable :

    • l’empathie cognitive (comprendre la perspective de l’autre),
    • l’empathie émotionnelle (ressentir ce que l’autre ressent),
    • la préoccupation empathique (être poussé à agir pour aider).

    L’IA peut simuler la première. Maladroitement.

    Mais les deux autres ? Impossible.

    Parce qu’elles nécessitent d’avoir un corps, une histoire, des blessures, une conscience.

    Brené Brown, chercheuse sur la vulnérabilité et le leadership authentique, enfonce le clou : l’empathie nécessite la vulnérabilité. Elle nécessite d’accepter de ne pas avoir de réponse parfaite, de s’asseoir dans l’inconfort avec l’autre, de dire « je ne sais pas quoi dire, mais je suis là ».

    Un algorithme ne peut pas être vulnérable. Il ne risque rien. Il n’a rien à perdre.

    J’ai vécu des moments où un simple regard, un silence partagé, valait mille mots. Où la présence de quelqu’un qui ne disait rien mais qui ÉTAIT là changeait tout.

    L’IA peut vous donner des conseils. Elle peut analyser votre ton de voix, détecter votre stress, vous suggérer une pause.

    Mais elle ne peut pas s’asseoir à côté de vous dans la boue et vous dire : « moi aussi, j’ai connu ça ».

    L’empathie n’est pas un traitement de données. C’est une résonance entre deux consciences.

    Et ça, aucun code ne le reproduira jamais.


    Sources citées :

    • Daniel Goleman – « Emotional Intelligence: Why It Can Matter More Than IQ » (1995)
      • Les trois types d’empathie : cognitive, émotionnelle, préoccupation empathique
    • Brené Brown – « Dare to Lead » (2018) et recherches sur la vulnérabilité

    Sources complémentaires :

    • JAMA Psychiatry (2023) – Études comparatives chatbots vs thérapeutes humains
    • Paul Ekman – « Emotions Revealed » (2003) – reconnaissance vs ressenti des émotions
    • Carl Rogers – « On Becoming a Person » (1961) – empathie thérapeutique authentique
    • Antonio Damasio – « Descartes’ Error » (1994) – le rôle du corps dans l’émotion
  • L’intuition : ce super-pouvoir que l’IA n’aura jamais

    L’intuition : ce super-pouvoir que l’IA n’aura jamais

    J’ai un ami chirurgien qui m’a raconté cette histoire : en pleine opération de routine, il a senti que quelque chose n’allait pas. Rien dans les moniteurs, rien d’anormal sur le plan technique. Juste… un malaise. Il a creusé, insisté, et découvert une complication rare qui aurait pu être fatale à son patient.

    L’intuition.

    Ce n’est pas de la magie. C’est ce que les scientifiques appellent « l’intuition experte » : des années d’expérience compressées en un éclair de reconnaissance. Daniel Kahneman, dans son magistral « Thinking, Fast and Slow », explique que notre cerveau possède deux systèmes : le Système 1 (rapide, intuitif, émotionnel) et le Système 2 (lent, analytique, rationnel).

    L’IA ? Elle n’a qu’un Système 2 sur-dopé. Elle analyse, calcule, optimise. Mais elle ne « sent » rien.

    Nassim Nicholas Taleb enfonce le clou : dans son concept d’antifragilité, il démontre que face à l’incertitude radicale, face aux événements improbables (les fameux « cygnes noirs »), l’intuition humaine surpasse tous les modèles prédictifs. Pourquoi ? Parce qu’elle intègre ce que les données ne peuvent pas : l’expérience du chaos, la mémoire du corps, les signaux faibles imperceptibles.

    Un algorithme vous dira : « basé sur 10 millions de cas similaires, la probabilité est de 0,001% ». Votre intuition vous dira : « cette fois, c’est différent ».

    Et souvent, elle aura raison.

    Parce que l’intuition humaine n’est pas irrationnelle. Elle est supra-rationnelle : elle intègre des variables que nous ne savons même pas nommer.

    L’IA optimise ce qui est mesurable. L’humain navigue ce qui est essentiel.

    Je ne dis pas qu’il faut ignorer les données. Je dis qu’il faut aussi savoir les ignorer quand votre expérience vous crie de le faire.

    C’est ça, l’intelligence véritable.


    Sources :