• L’IA copie mieux qu’elle n’invente : exploitez cette réalité

    L’IA copie mieux qu’elle n’invente : exploitez cette réalité

    Révélation : l’IA excelle à imiter, pas à créer ex nihilo.

    Comme vos collaborateurs, d’ailleurs. Montrez-leur un modèle excellent, ils le reproduisent. Donnez-leur des consignes floues, ils improvisent… mal.

    L’IA fonctionne identiquement. Les meilleurs résultats viennent du « few-shot learning » : donner 1-3 exemples concrets avant votre demande.

    Pourquoi ça marche ?

    L’IA analyse les patterns dans vos exemples : ton, structure, niveau de détail, format. Elle calibre sa réponse sur cette base, comme un bon collaborateur observant vos standards.

    Exemple concret : Au lieu de « Rédige une analyse concurrentielle », donnez : « Voici notre dernière analyse réussie : [EXEMPLE] Maintenant, applique la même méthodologie à notre nouveau concurrent X. »

    L’erreur classique ? Croire que l’IA « comprend » intuitivement votre contexte. Faux. Elle interpole à partir de ses données d’entraînement – souvent génériques.

    Vos exemples la recentrent sur VOTRE réalité, VOS standards, VOTRE style.

    C’est du management 101 appliqué à l’IA : montrer avant de déléguer.

    La prochaine fois, sortez vos meilleurs livrables. Ils sont votre meilleur prompt.

  • Prompting : arrêtez de parler à l’IA comme à un stagiaire mal briefé

    Prompting : arrêtez de parler à l’IA comme à un stagiaire mal briefé

    L’IA vous déçoit ? Le problème, c’est vous.

    Pas par incompétence, mais par flemme. Vous donnez des consignes aussi floues qu’à un stagiaire le vendredi soir : « Fais un truc marketing, tu vois le genre. »

    Résultat ? Du générique insipide.

    L’IA, comme un bon consultant, excelle avec des instructions précises. Trois éléments non négociables :

    • Le Contexte : Situez l’IA dans votre réalité. Taille d’entreprise, secteur, enjeux spécifiques. Sans ça, elle improvise dans le vide.
    • Le Rôle : Dites-lui qui elle incarne. Un DRH, un financier, un marketeur ? Chaque rôle a ses codes, son vocabulaire, ses priorités.
    • L’Objectif : Soyez mesurable. « Améliorer les ventes » vs « Augmenter le taux de conversion de 12% en 3 mois ». Devinez lequel donne de meilleurs résultats.

    The Prompt Report (analyse de 1500+ études académiques) confirme : des ajustements structurés peuvent améliorer la qualité jusqu’à 90%.

    Ce n’est pas de la magie, c’est du management. Vous briefez déjà vos équipes ainsi – pourquoi traiter l’IA différemment ?

    L’ironie ? Nous passons des heures à briefer nos collaborateurs mais 30 secondes à prompter l’IA. Puis nous nous étonnons des résultats médiocres.

    La prochaine fois, prenez 2 minutes pour structurer. L’IA vous remerciera par sa performance


    Source :

  • Les « capacités émergentes » ou l’ultime mystification de l’IA

    Les « capacités émergentes » ou l’ultime mystification de l’IA

    Pour finir en beauté cette semaine de démystification : les « capacités émergentes » – le terme qui transforme les effets d’échelle en magie computationnelle.

    Le narratif est séduisant : quand les systèmes d’IA grossissent, ils développent spontanément des capacités que personne n’a programmées. Des aptitudes « émergent » de la complexité comme la conscience naîtrait de la matière.

    Bullshit total.

    Voici la réalité : franchissement de seuils d’utilisabilité.

    Tout système computationnel a des capacités qui existent mais sont en deçà de niveaux de qualité utiles. Quand vous ajoutez plus de paramètres, de données d’entraînement et de puissance de calcul, certaines de ces capacités passent de « techniquement possible mais inutile » à « réellement fonctionnel ».

    Les capacités n’émergent pas – elles étaient toujours mathématiquement possibles dans l’architecture du système. Elles étaient juste nulles jusqu’à atteindre l’échelle suffisante pour devenir utilisables.

    C’est comme prétendre que des « capacités de conduite émergent » quand vous mettez enfin assez d’essence dans votre voiture pour démarrer le moteur. La voiture était toujours capable de rouler – elle avait juste besoin de carburant suffisant pour fonctionner.

    Pareil pour l’IA. Les opérations mathématiques pour le raisonnement complexe existent aussi dans les petits modèles. Elles ne sont simplement pas fiables ou utiles jusqu’à atteindre l’échelle suffisante.

    Cette semaine, nous avons démonté cinq termes qui mystifient l’ingénierie de base. Le pattern est constant : prendre du progrès technique normal, l’enrober de métaphores biologiques/cognitives, et soudain vous avez des percées révolutionnaires.

    Comprendre vaut mieux que mystifier. À chaque fois.

  • Démystifier le jargon de l’IA: la « Jagged Frontier »

    Démystifier le jargon de l’IA: la « Jagged Frontier »

    La « frontière dentelée » ou quand Harvard découvre les données d’entraînement

    Aujourd’hui, le pompon : la « frontière technologique dentelée » (jagged frontier).

    Des chercheurs de Harvard ont découvert que l’IA performe de manière inégale. Brillante en écriture créative, nulle en maths de base. Excellente pour générer des idées, catastrophique en raisonnement logique.

    Leur conclusion révolutionnaire ? Les capacités de l’IA forment une « frontière dentelée ».

    Permettez-moi de vous révéler le secret : ils ont testé l’IA sur des tâches où elle avait de bonnes données d’entraînement versus des tâches où elle n’en avait pas. Surprise – elle performe mieux sur le premier groupe.

    N’importe quel ingénieur ML aurait pu leur dire ça. Les capacités de l’IA reflètent directement la distribution des données d’entraînement.

    • Beaucoup d’exemples = bonne performance.
    • Peu d’exemples = performance médiocre.
    • Cas limites = résultats imprévisibles.

    L’étude de Harvard a essentiellement conçu des tâches pour faire échouer l’IA, puis a exprimé sa surprise face aux échecs. Ils ont créé des exercices nécessitant la synthèse de données numériques avec des indices contextuels subtils enterrés dans du texte – exactement le type de raisonnement multi-modal avec lequel les architectures actuelles peinent.

    Cette « frontière dentelée » n’est pas mystérieuse – c’est le résultat prévisible de la façon dont ces systèmes sont construits. Comprendre la méthodologie d’entraînement vous donne un véritable pouvoir prédictif sur le comportement de l’IA.

    Le terme sert le complexe consultant-académique qui a besoin de conférences et d’heures facturables.

    Demain : les « capacités émergentes » – le boss final de la mystification IA.

  • Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Après les prompts et l’attention, attaquons-nous au « chain-of-thought reasoning » – le terme qui transforme la génération de texte en méditation philosophique.

    La découverte initiale est réelle : quand on demande à l’IA de « réfléchir étape par étape » ou « montrer son raisonnement », les réponses s’améliorent drastiquement. Les chercheurs y ont vu une révolution cognitive.

    Erreur d’interprétation massive.

    Voici la réalité : le modèle génère du texte intermédiaire qui corrèle avec de meilleures réponses finales. Il ne raisonne pas – il produit du pattern matching verbeux.

    Analogie : un étudiant qui écrit les étapes d’un calcul ne raisonne pas forcément mieux, il suit juste un format qui réduit les erreurs. Pareil pour l’IA.

    Le modèle a appris que certains patterns textuels (structures étape-par-étape) apparaissent près des bonnes réponses dans les données d’entraînement. Quand il génère ces patterns, il touche plus souvent dans le mille statistique.

    C’est de l’autocomplete sophistiqué, pas du dialogue socratique.

    Cette confusion sémantique crée des attentes délirantes. On s’attend à une compréhension profonde alors qu’on a affaire à de la génération structurée qui corrèle avec la précision.

    Le vrai breakthrough ? La verbosité améliore l’exactitude. C’est de l’ingénierie utile, même si ce n’est pas du raisonnement.

    Comprendre cette distinction change tout : vous ne demandez pas à l’IA de penser, vous lui demandez de générer dans un format qui corrèle avec la justesse.

    Demain : la « jagged frontier » ou comment les mots cachent la réalité des données d’entraînement.

  • Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Hier, le « prompt engineering« . Aujourd’hui, penchons-nous sur les « mécanismes d’attention » – probablement la métaphore la plus trompeuse de l’IA moderne.

    L’histoire commence en 2017 avec un paper au titre genial : « Attention Is All You Need ». Les chercheurs découvrent qu’en pondérant différemment les parties des données d’entrée, ils améliorent drastiquement les performances des modèles. Breakthrough technique remarquable.

    Mais l’appeler « attention » ? Pure manipulation sémantique.

    Soudain, tout le monde imagine l’IA « se concentrant » comme un étudiant attentif. Les journalistes tech parlent d’IA « focalisée » et « contemplative ». Les investisseurs visualisent des esprits artificiels méditant sur les données.

    La réalité ? De la multiplication matricielle sophistiquée.

    Le modèle assigne des poids numériques aux différents éléments d’entrée. Poids élevé = influence plus forte sur la sortie. C’est tout. Comme un système de vote pondéré, pas une conscience qui « fait attention ».

    Cette confusion linguistique transforme des maths excellentes en mystère pseudo-cognitif. Au lieu de dire « nous avons amélioré notre algorithme de pondération », on entend « révolutionnaires mécanismes d’attention qui permettent la conscience artificielle ».

    Le problème ? Quand vous pensez que l’IA « fait attention » comme les humains, vous attendez une compréhension humaine. Quand vous réalisez que c’est de la pondération statistique, vous pouvez vraiment prédire et contrôler son comportement.

    Les mécanismes d’attention mathématiques : révolutionnaires. L’attention cognitive : inexistante.

    Demain : le « raisonnement en chaîne de pensée » ou comment l’IA a appris à montrer ses calculs.

  • Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Avouons-le : l’industrie tech adore transformer des concepts basiques en révolutions. Et « Prompt Engineering » est probablement l’exemple le plus flagrant.

    J’observe cette comédie depuis des mois. Des formations à plusieurs milliers d’euros pour apprendre à « engineer des prompts ». Des LinkedIn pleins de « Prompt Engineers » fraîchement diplômés. Des conférences où l’on vous explique doctement les « meilleures pratiques » de cette « discipline émergente ».

    Mais derrière ce vernis académique, qu’est-ce qu’on trouve ?

    Du trial and error avec des instructions. Point.

    Quand vous reformulez une question à ChatGPT parce que la première tentative vous a donné n’importe quoi – félicitations, vous faites du « prompt engineering ». Quand vous ajoutez « sois précis » ou « réfléchis étape par étape » pour obtenir de meilleurs résultats – vous êtes désormais un ingénieur des prompts.

    Cette mystification m’agace parce qu’elle cache une vérité plus simple et plus utile : ces systèmes fonctionnent comme des perroquets statistiques sophistiqués. Comprendre ça vous rend plus efficace que tous les cours de « prompt engineering » du monde.

    L’ingénierie, la vraie, implique des méthodes systématiques, des principes scientifiques, des résultats prévisibles et déterministes. Le « prompt engineering » ? C’est plutôt « essayons cette formulation et voyons ce qui arrive ».

    Certes des structures de prompts sont meilleures que d’autres, comme certaines personnes sont meilleures que d’autres pour articuler une demande. C’est de la communication, pas de l’ingénierie !

    Cette semaine, je démonte cinq termes qui transforment la réalité technique en mystère ésotérique. Parce que comprendre comment ces systèmes fonctionnent vraiment vaut mieux que de paraître intelligent dans les dîners parisiens.

    Demain : pourquoi les « mécanismes d’attention » ne font attention à rien du tout.

  • L’humain augmenté : un manifeste pour l’ère de l’IA

    L’humain augmenté : un manifeste pour l’ère de l’IA

    Nous avons passé 8 épisodes à déconstruire le mythe de l’ »IA qui remplace l’humain ». Maintenant, la vraie question :

    Comment collaborer intelligemment avec l’IA sans perdre notre âme ?

    Cal Newport, dans « Deep Work », nous met en garde : les outils qui nous promettent la productivité sont souvent ceux qui détruisent notre capacité de concentration profonde, de réflexion critique, de créativité véritable.

    L’IA est un amplificateur redoutable. Mais elle amplifie VOTRE direction. Si vous n’avez pas de boussole intérieure, elle ne vous en fournira pas.

    Voici mon manifeste pour une collaboration honnête :

    • L’IA traite les données. Vous posez les questions essentielles.
    • L’IA génère des options. Vous choisissez avec conscience éthique.
    • L’IA optimise le connu. Vous imaginez l’impossible.
    • L’IA accélère l’exécution. Vous apportez la vision.
    • L’IA simule l’empathie. Vous la vivez authentiquement.

    L’humain augmenté n’est pas celui qui délègue aveuglément tout à l’algorithme. C’est celui qui utilise l’IA pour se libérer des tâches répétitives, afin de se concentrer sur ce que SEUL l’humain peut faire :

    Penser de façon critique.

    Créer de façon transgressive.

    Ressentir avec authenticité.

    Douter avec honnêteté.

    Rêver l’impossible.

    Assumer ses choix éthiquement.

    L’IA nous offre une opportunité historique : libérer notre temps des corvées cognitives pour retrouver notre essence.

    Mais cette opportunité peut aussi devenir un piège : déléguer notre jugement, externaliser notre pensée, abandonner notre responsabilité.

    Le choix nous appartient.

    Moi, je choisis d’utiliser l’IA comme outil, pas comme béquille.

    Et vous ?


    Sources :

    • Cal Newport – « Deep Work: Rules for Focused Success in a Distracted World » (2016)
    • Harvard Business Review (2024-2025) – Études sur l’utilisation de l’IA en contexte stratégique et risques de délégation sans supervision

    Sources complémentaires (pour l’ensemble de la série) :

    • Récapitulatif des penseurs cités :
      • Daniel Kahneman – Intuition et biais
      • Brené Brown – Empathie et vulnérabilité
      • Margaret Boden – Créativité computationnelle
      • John Searle – Chambre Chinoise et compréhension
      • Hannah Arendt – Éthique et responsabilité
      • Steven Pinker – Apprentissage et structures innées
      • Richard Feynman & Carl Sagan – Pensée critique
      • Clayton Christensen – Innovation disruptive
  • L’IA ne doute jamais. C’est son plus gros défaut.

    L’IA ne doute jamais. C’est son plus gros défaut.

    Demandez à ChatGPT n’importe quelle question. Il vous répondra avec aplomb, structure, références (parfois inventées).

    Demandez-lui : « Es-tu sûr de ta réponse ? » Il vous dira oui, avec des nuances prudentes mais rassurantes.

    Demandez-lui : « Et si tu avais complètement tort ? » Il reconnaîtra la possibilité théorique, mais ne DOUTERA jamais vraiment.

    Parce que douter nécessite une conscience de ses propres limites. Et l’IA n’a pas de conscience.

    Richard Feynman, ce génie espiègle de la physique quantique, répétait : « Le premier principe est que vous ne devez pas vous tromper vous-même — et vous êtes la personne la plus facile à tromper. »

    L’humain peut se tromper, mais il peut aussi SE SAVOIR en train de se tromper. Il peut douter, remettre en question, chercher activement à falsifier ses propres croyances.

    L’IA ? Elle produit du contenu plausible. Point. Elle n’a aucun mécanisme interne de doute critique.

    Carl Sagan nous a légué le « Baloney Detection Kit » : des outils intellectuels pour débusquer le bullshit. Parmi eux : le rasoir d’Occam, la demande de preuves réplicables, la méfiance envers les arguments d’autorité. J’y reviendrai…

    L’IA fait exactement le contraire : elle utilise des arguments d’autorité (« selon des études »), elle génère des références qui n’existent pas, elle ne vérifie rien.

    Karl Popper nous rappelle que la science progresse par réfutabilité : on cherche activement à prouver qu’on a tort.

    L’IA ne cherche jamais à se réfuter. Elle optimise pour convaincre, pas pour dire la vérité.

    La curiosité véritable n’est pas « trouver des réponses ». C’est « poser les bonnes questions, surtout celles qui nous dérangent ».

    L’IA donne des réponses. Seul l’humain ose vraiment questionner.


    Sources :

  • L’humain, champion du monde du « few-shot learning »

    L’humain, champion du monde du « few-shot learning »

    Les chercheurs en IA sont fiers d’annoncer que leurs modèles peuvent faire du « few-shot learning » : apprendre avec quelques exemples seulement.

    Quelques exemples ? Genre 5, 10, 50 ?

    Pour le moment, tout ceci est pathétique comparé à un enfant humain (et cela changera dans le futur, bien sûr).

    Montrez un chat à un enfant de 3 ans. Une seule fois. Ensuite, il reconnaît tous les chats : persans, siamois, tigres, lions, dessins animés de chats, sculptures de chats. Il généralise instantanément le concept.

    ChatGPT-4 ? Il a ingéré des millions (milliards ?) d’images avant de pouvoir identifier un chat. Et même après, montrez-lui un chat stylisé, en origami, en ombre chinoise, il peut échouer.

    Pourquoi cette différence hallucinante ?

    Parce que l’apprentissage humain n’est pas basé sur la mémorisation de patterns statistiques. Il est basé sur la construction de MODÈLES CONCEPTUELS du monde.

    Steven Pinker, dans « The Blank Slate », démontre que nous ne sommes pas des ardoises vierges. Nous naissons avec des structures cognitives innées — grammaire universelle, physique intuitive, psychologie naïve — qui nous permettent d’apprendre de façon explosive.

    Un enfant apprend le concept de « cassé » et l’applique instantanément à des milliers d’objets jamais rencontrés : verre cassé, jouet cassé, cœur cassé.

    L’IA ? Elle doit être réentraînée pour chaque nouveau domaine. Le « transfer learning » de l’IA est une blague comparé au transfert conceptuel humain.

    Yuval Noah Harari note dans « Sapiens » que notre capacité à créer et manipuler des abstractions — à apprendre des concepts, pas des exemples — est ce qui nous a permis de dominer la planète.

    L’IA apprend à reproduire. L’humain apprend à comprendre.

    Nuance gigantesque.


    Sources :