Catégorie : Idées

  • L’humain augmenté : un manifeste pour l’ère de l’IA

    L’humain augmenté : un manifeste pour l’ère de l’IA

    Nous avons passé 8 épisodes à déconstruire le mythe de l’ »IA qui remplace l’humain ». Maintenant, la vraie question :

    Comment collaborer intelligemment avec l’IA sans perdre notre âme ?

    Cal Newport, dans « Deep Work », nous met en garde : les outils qui nous promettent la productivité sont souvent ceux qui détruisent notre capacité de concentration profonde, de réflexion critique, de créativité véritable.

    L’IA est un amplificateur redoutable. Mais elle amplifie VOTRE direction. Si vous n’avez pas de boussole intérieure, elle ne vous en fournira pas.

    Voici mon manifeste pour une collaboration honnête :

    • L’IA traite les données. Vous posez les questions essentielles.
    • L’IA génère des options. Vous choisissez avec conscience éthique.
    • L’IA optimise le connu. Vous imaginez l’impossible.
    • L’IA accélère l’exécution. Vous apportez la vision.
    • L’IA simule l’empathie. Vous la vivez authentiquement.

    L’humain augmenté n’est pas celui qui délègue aveuglément tout à l’algorithme. C’est celui qui utilise l’IA pour se libérer des tâches répétitives, afin de se concentrer sur ce que SEUL l’humain peut faire :

    Penser de façon critique.

    Créer de façon transgressive.

    Ressentir avec authenticité.

    Douter avec honnêteté.

    Rêver l’impossible.

    Assumer ses choix éthiquement.

    L’IA nous offre une opportunité historique : libérer notre temps des corvées cognitives pour retrouver notre essence.

    Mais cette opportunité peut aussi devenir un piège : déléguer notre jugement, externaliser notre pensée, abandonner notre responsabilité.

    Le choix nous appartient.

    Moi, je choisis d’utiliser l’IA comme outil, pas comme béquille.

    Et vous ?


    Sources :

    • Cal Newport – « Deep Work: Rules for Focused Success in a Distracted World » (2016)
    • Harvard Business Review (2024-2025) – Études sur l’utilisation de l’IA en contexte stratégique et risques de délégation sans supervision

    Sources complémentaires (pour l’ensemble de la série) :

    • Récapitulatif des penseurs cités :
      • Daniel Kahneman – Intuition et biais
      • Brené Brown – Empathie et vulnérabilité
      • Margaret Boden – Créativité computationnelle
      • John Searle – Chambre Chinoise et compréhension
      • Hannah Arendt – Éthique et responsabilité
      • Steven Pinker – Apprentissage et structures innées
      • Richard Feynman & Carl Sagan – Pensée critique
      • Clayton Christensen – Innovation disruptive
  • L’IA ne doute jamais. C’est son plus gros défaut.

    L’IA ne doute jamais. C’est son plus gros défaut.

    Demandez à ChatGPT n’importe quelle question. Il vous répondra avec aplomb, structure, références (parfois inventées).

    Demandez-lui : « Es-tu sûr de ta réponse ? » Il vous dira oui, avec des nuances prudentes mais rassurantes.

    Demandez-lui : « Et si tu avais complètement tort ? » Il reconnaîtra la possibilité théorique, mais ne DOUTERA jamais vraiment.

    Parce que douter nécessite une conscience de ses propres limites. Et l’IA n’a pas de conscience.

    Richard Feynman, ce génie espiègle de la physique quantique, répétait : « Le premier principe est que vous ne devez pas vous tromper vous-même — et vous êtes la personne la plus facile à tromper. »

    L’humain peut se tromper, mais il peut aussi SE SAVOIR en train de se tromper. Il peut douter, remettre en question, chercher activement à falsifier ses propres croyances.

    L’IA ? Elle produit du contenu plausible. Point. Elle n’a aucun mécanisme interne de doute critique.

    Carl Sagan nous a légué le « Baloney Detection Kit » : des outils intellectuels pour débusquer le bullshit. Parmi eux : le rasoir d’Occam, la demande de preuves réplicables, la méfiance envers les arguments d’autorité. J’y reviendrai…

    L’IA fait exactement le contraire : elle utilise des arguments d’autorité (« selon des études »), elle génère des références qui n’existent pas, elle ne vérifie rien.

    Karl Popper nous rappelle que la science progresse par réfutabilité : on cherche activement à prouver qu’on a tort.

    L’IA ne cherche jamais à se réfuter. Elle optimise pour convaincre, pas pour dire la vérité.

    La curiosité véritable n’est pas « trouver des réponses ». C’est « poser les bonnes questions, surtout celles qui nous dérangent ».

    L’IA donne des réponses. Seul l’humain ose vraiment questionner.


    Sources :

  • L’humain, champion du monde du « few-shot learning »

    L’humain, champion du monde du « few-shot learning »

    Les chercheurs en IA sont fiers d’annoncer que leurs modèles peuvent faire du « few-shot learning » : apprendre avec quelques exemples seulement.

    Quelques exemples ? Genre 5, 10, 50 ?

    Pour le moment, tout ceci est pathétique comparé à un enfant humain (et cela changera dans le futur, bien sûr).

    Montrez un chat à un enfant de 3 ans. Une seule fois. Ensuite, il reconnaît tous les chats : persans, siamois, tigres, lions, dessins animés de chats, sculptures de chats. Il généralise instantanément le concept.

    ChatGPT-4 ? Il a ingéré des millions (milliards ?) d’images avant de pouvoir identifier un chat. Et même après, montrez-lui un chat stylisé, en origami, en ombre chinoise, il peut échouer.

    Pourquoi cette différence hallucinante ?

    Parce que l’apprentissage humain n’est pas basé sur la mémorisation de patterns statistiques. Il est basé sur la construction de MODÈLES CONCEPTUELS du monde.

    Steven Pinker, dans « The Blank Slate », démontre que nous ne sommes pas des ardoises vierges. Nous naissons avec des structures cognitives innées — grammaire universelle, physique intuitive, psychologie naïve — qui nous permettent d’apprendre de façon explosive.

    Un enfant apprend le concept de « cassé » et l’applique instantanément à des milliers d’objets jamais rencontrés : verre cassé, jouet cassé, cœur cassé.

    L’IA ? Elle doit être réentraînée pour chaque nouveau domaine. Le « transfer learning » de l’IA est une blague comparé au transfert conceptuel humain.

    Yuval Noah Harari note dans « Sapiens » que notre capacité à créer et manipuler des abstractions — à apprendre des concepts, pas des exemples — est ce qui nous a permis de dominer la planète.

    L’IA apprend à reproduire. L’humain apprend à comprendre.

    Nuance gigantesque.


    Sources :

  • La banalité du mal algorithmique

    La banalité du mal algorithmique

    En 1961, Hannah Arendt assiste au procès d’Adolf Eichmann, architecte logistique de la Shoah. Elle s’attend à rencontrer un monstre. Elle découvre un bureaucrate médiocre qui obéissait aux ordres.

    C’est sa fameuse thèse de la « banalité du mal » : le mal absolu peut être perpétré par des gens ordinaires qui « ne font que suivre les procédures ».

    Aujourd’hui, nous créons quelque chose de pire : le mal algorithmique. Des systèmes qui discriminent, qui nuisent, qui tuent, sans qu’aucun humain ne se sente responsable.

    Amazon a dû abandonner une IA de recrutement qui éliminait systématiquement les femmes. Pourquoi ? Parce qu’elle avait « appris » sur des données historiques biaisées.

    Des algorithmes de prédiction criminelle aux États-Unis condamnent deux fois plus les Noirs que les Blancs pour des crimes identiques.

    Des IA médicales recommandent des traitements erronés, avec des conséquences fatales.

    Qui est responsable ? Le data scientist qui a entraîné le modèle ? Le manager qui l’a déployé ? Le CEO qui voulait « automatiser pour réduire les coûts » ?

    Réponse : tout le monde et personne. C’est le problème.

    L’éthique véritable nécessite un sujet moral : un JE qui dit « j’ai choisi, j’assume, je réponds de mes actes ». L’algorithme n’a pas de JE. Il optimise une fonction. Point.

    Comme l’écrit Kate Crawford dans « Atlas of AI » : derrière chaque « décision IA », il y a des choix humains : quelles données collecter, quel objectif optimiser, quels biais accepter.

    Nous devons arrêter de nous cacher derrière l’algorithme.

    Le code n’a pas d’éthique. Nous, si.

    Ou du moins, nous le devrions.


    Sources :

    • Hannah Arendt – « Eichmann in Jerusalem: A Report on the Banality of Evil » (1963)
    • Kate Crawford – « Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence » (2021)
  • L’illusion de la compréhension algorithmique

    L’illusion de la compréhension algorithmique

    Imaginez quelqu’un qui parle parfaitement français sans avoir jamais compris un seul mot. Impossible ? C’est pourtant exactement ce que fait l’IA.

    En 1980, le philosophe John Searle propose l’expérience de pensée de la « Chambre Chinoise » : enfermez quelqu’un qui ne parle pas chinois dans une pièce, donnez-lui un manuel parfait de manipulation de symboles chinois. De l’extérieur, cette personne semble comprendre le chinois. De l’intérieur ? Elle ne fait que suivre mécaniquement des règles.

    C’est exactement l’IA.

    Elle manipule des tokens, calcule des probabilités, génère des réponses statistiquement cohérentes. Mais elle n’accède jamais au SENS. Elle n’a pas de modèle mental du monde, pas d’expérience vécue, pas de contexte existentiel.

    Douglas Hofstadter, dans « Gödel, Escher, Bach », va plus loin : la compréhension véritable émerge de boucles étranges, de connexions entre niveaux de réalité, de l’expérience corporelle et émotionnelle. L’IA n’a ni corps ni émotion.

    Résultat ? Elle rate systématiquement l’ironie, le second degré, les non-dits culturels. Elle vous dira que « je vais bien » exprime 87% de sentiment positif, sans capter que le ton, le contexte, le silence qui suit hurlent le contraire.

    Un exemple concret : demandez à une IA de comprendre « C’est malin ! » dans une conversation. Compliment ou reproche ? Impossible de savoir sans le contexte social, relationnel, historique. L’humain le sait instantanément.

    Parce que comprendre n’est pas décoder. C’est habiter le langage, pas le manipuler.

    L’IA excelle à traiter du langage. L’humain excelle à vivre dedans.

    Nuance essentielle.


    Sources:

    • John Searle – « Minds, Brains and Programs » (1980)
    • Douglas Hofstadter – « Gödel, Escher, Bach: An Eternal Golden Braid » (1979), « I Am a Strange Loop » (2007)
    • Ludwig Wittgenstein – « Philosophical Investigations » (1953)
    • George Lakoff & Mark Johnson – « Metaphors We Live By » (1980)
    • Hubert Dreyfus – « What Computers Still Can’t Do » (1972)
    • Ray Jackendoff – « Foundations of Language » (2002)