• ChatGPT n’est pas une thèse de doctorat

    ChatGPT n’est pas une thèse de doctorat

    Il existe une confusion dangereuse entre utiliser un outil et comprendre son fonctionnement. Vous conduisez une voiture ? Magnifique. Cela fait-il de vous un ingénieur en mécanique automobile ? Évidemment non.

    Pourtant, cette logique absurde domine le marché du conseil IA. Des consultants utilisent ChatGPT quotidiennement — certains avec talent, d’ailleurs — et en concluent qu’ils maîtrisent l’intelligence artificielle. Ils rédigent des prompts sophistiqués, obtiennent des résultats impressionnants, mais ne comprennent rien à l’architecture sous-jacente.

    Douglas Hofstadter, auteur du magistral « Gödel, Escher, Bach », insiste : comprendre un système intelligent exige de saisir ses limitations fondamentales, pas seulement ses capacités apparentes. Utiliser ChatGPT, c’est manipuler une interface. Comprendre ChatGPT, c’est saisir comment 175 milliards de paramètres interagissent via des couches d’attention multi-têtes pour prédire le prochain token.

    La différence ? Environ cinq ans d’études en mathématiques, statistiques et informatique.

    Un utilisateur de ChatGPT ne sait pas pourquoi le modèle « hallucine » certains faits. Un expert peut expliquer que les LLM minimisent une fonction de perte lors de l’entraînement sans véritable compréhension sémantique, générant parfois des réponses statistiquement plausibles mais factuellement fausses.

    Carl Sagan le disait mieux : « Vous ne pouvez pas faire de la science en contournant la méthode scientifique. »

    Je ne dis pas qu’il faut un doctorat pour parler d’IA. Mais prétendre à l’expertise en n’ayant que des compétences utilisateur relève de l’escroquerie intellectuelle.

    Alors, utilisez ChatGPT. Mais admettez ce que vous ne comprenez pas. L’honnêteté intellectuelle commence là.

  • L’expert IA sans les maths : anatomie d’une imposture qui dure

    L’expert IA sans les maths : anatomie d’une imposture qui dure

    Trois ans après le lancement public de ChatGPT, le phénomène persiste : des consultants se présentent comme « experts IA » alors que leur bagage technique se limite à quelques tutoriels N8N, Make ou Zapier, et un abonnement ChatGPT.

    Pas de formation en mathématiques. Pas de compréhension des réseaux de neurones. Juste assez de jargon pour impressionner un comité de direction mal informé.

    Ce qui me révulse ? Pas leur opportunisme — c’est presque respectable dans sa brutalité capitaliste. Non, c’est leur malhonnêteté intellectuelle. Ces individus vendent du conseil stratégique sur une technologie qu’ils ne comprennent pas. Ils facturent quelques milliers d’euros pour automatiser un workflow qu’un stagiaire pourrait faire en deux heures.

    Le MIT est clair : maîtriser l’IA nécessite des fondations solides en algèbre linéaire, calcul différentiel et théorie des probabilités (source MIT). Pas négociable. Pas contournable.

    Ces « experts » ne savent pas ce qu’est une fonction de perte, ne peuvent pas expliquer la rétropropagation, ignorent la différence entre fine-tuning et RAG. Mais ils ont un site web élégant et des témoignages clients.

    Nassim Taleb les qualifierait d’ »intellectuels sans peau dans le jeu » — ceux qui conseillent sans jamais subir les conséquences de leurs erreurs.

    Le client perd de l’argent ? L’expert a déjà encaissé.

    Alors comment distinguer un vrai expert d’un charlatan armé de N8N ? C’est l’objet de cette série. Préparez-vous à développer votre détecteur de bullshit.

  • CRAFT : enfin un framework qui marche (et ne vient pas d’un grand gourou)

    CRAFT : enfin un framework qui marche (et ne vient pas d’un grand gourou)

    Les frameworks pullulent dans l’écosystème IA. La plupart ? Du vent intellectuel.

    CRAFT différent. Pragmatique, testé, efficace.

    • Contexte : Situez votre demande. Secteur, taille d’équipe, enjeux business, contraintes temporelles. L’IA a besoin de balises pour naviguer.
    • Rôle : Définissez l’expertise requise. Un DRH pense process, un CFO pense ROI, un tech pense scalabilité. Chaque rôle active des référentiels différents.
    • Action : Soyez spécifique. « Analyser » est vague. « Identifier 3 leviers d’optimisation avec impact chiffré » est actionnable.
    • Format : Structurez l’output. Bullet points, tableau, executive summary ? Spécifiez pour éviter les pavés indigestes.
    • Ton : Calibrez le style. Formel pour un board, décontracté pour une équipe, technique pour des devs.

    Pourquoi ça marche ? CRAFT structure votre pensée AVANT de prompter. Comme préparer une réunion importante : vous clarifiez vos objectifs, anticipez les questions, organisez vos idées.

    L’IA bénéficie de cette clarté. Elle n’improvise plus, elle exécute un cahier des charges précis.

    L’erreur fréquente ? Sauter des éléments par flemme. Chaque lettre de CRAFT a son utilité. Respectez la méthode, elle vous respectera.

  • L’IA copie mieux qu’elle n’invente : exploitez cette réalité

    L’IA copie mieux qu’elle n’invente : exploitez cette réalité

    Révélation : l’IA excelle à imiter, pas à créer ex nihilo.

    Comme vos collaborateurs, d’ailleurs. Montrez-leur un modèle excellent, ils le reproduisent. Donnez-leur des consignes floues, ils improvisent… mal.

    L’IA fonctionne identiquement. Les meilleurs résultats viennent du « few-shot learning » : donner 1-3 exemples concrets avant votre demande.

    Pourquoi ça marche ?

    L’IA analyse les patterns dans vos exemples : ton, structure, niveau de détail, format. Elle calibre sa réponse sur cette base, comme un bon collaborateur observant vos standards.

    Exemple concret : Au lieu de « Rédige une analyse concurrentielle », donnez : « Voici notre dernière analyse réussie : [EXEMPLE] Maintenant, applique la même méthodologie à notre nouveau concurrent X. »

    L’erreur classique ? Croire que l’IA « comprend » intuitivement votre contexte. Faux. Elle interpole à partir de ses données d’entraînement – souvent génériques.

    Vos exemples la recentrent sur VOTRE réalité, VOS standards, VOTRE style.

    C’est du management 101 appliqué à l’IA : montrer avant de déléguer.

    La prochaine fois, sortez vos meilleurs livrables. Ils sont votre meilleur prompt.

  • Prompting : arrêtez de parler à l’IA comme à un stagiaire mal briefé

    Prompting : arrêtez de parler à l’IA comme à un stagiaire mal briefé

    L’IA vous déçoit ? Le problème, c’est vous.

    Pas par incompétence, mais par flemme. Vous donnez des consignes aussi floues qu’à un stagiaire le vendredi soir : « Fais un truc marketing, tu vois le genre. »

    Résultat ? Du générique insipide.

    L’IA, comme un bon consultant, excelle avec des instructions précises. Trois éléments non négociables :

    • Le Contexte : Situez l’IA dans votre réalité. Taille d’entreprise, secteur, enjeux spécifiques. Sans ça, elle improvise dans le vide.
    • Le Rôle : Dites-lui qui elle incarne. Un DRH, un financier, un marketeur ? Chaque rôle a ses codes, son vocabulaire, ses priorités.
    • L’Objectif : Soyez mesurable. « Améliorer les ventes » vs « Augmenter le taux de conversion de 12% en 3 mois ». Devinez lequel donne de meilleurs résultats.

    The Prompt Report (analyse de 1500+ études académiques) confirme : des ajustements structurés peuvent améliorer la qualité jusqu’à 90%.

    Ce n’est pas de la magie, c’est du management. Vous briefez déjà vos équipes ainsi – pourquoi traiter l’IA différemment ?

    L’ironie ? Nous passons des heures à briefer nos collaborateurs mais 30 secondes à prompter l’IA. Puis nous nous étonnons des résultats médiocres.

    La prochaine fois, prenez 2 minutes pour structurer. L’IA vous remerciera par sa performance


    Source :

  • Les « capacités émergentes » ou l’ultime mystification de l’IA

    Les « capacités émergentes » ou l’ultime mystification de l’IA

    Pour finir en beauté cette semaine de démystification : les « capacités émergentes » – le terme qui transforme les effets d’échelle en magie computationnelle.

    Le narratif est séduisant : quand les systèmes d’IA grossissent, ils développent spontanément des capacités que personne n’a programmées. Des aptitudes « émergent » de la complexité comme la conscience naîtrait de la matière.

    Bullshit total.

    Voici la réalité : franchissement de seuils d’utilisabilité.

    Tout système computationnel a des capacités qui existent mais sont en deçà de niveaux de qualité utiles. Quand vous ajoutez plus de paramètres, de données d’entraînement et de puissance de calcul, certaines de ces capacités passent de « techniquement possible mais inutile » à « réellement fonctionnel ».

    Les capacités n’émergent pas – elles étaient toujours mathématiquement possibles dans l’architecture du système. Elles étaient juste nulles jusqu’à atteindre l’échelle suffisante pour devenir utilisables.

    C’est comme prétendre que des « capacités de conduite émergent » quand vous mettez enfin assez d’essence dans votre voiture pour démarrer le moteur. La voiture était toujours capable de rouler – elle avait juste besoin de carburant suffisant pour fonctionner.

    Pareil pour l’IA. Les opérations mathématiques pour le raisonnement complexe existent aussi dans les petits modèles. Elles ne sont simplement pas fiables ou utiles jusqu’à atteindre l’échelle suffisante.

    Cette semaine, nous avons démonté cinq termes qui mystifient l’ingénierie de base. Le pattern est constant : prendre du progrès technique normal, l’enrober de métaphores biologiques/cognitives, et soudain vous avez des percées révolutionnaires.

    Comprendre vaut mieux que mystifier. À chaque fois.

  • Démystifier le jargon de l’IA: la « Jagged Frontier »

    Démystifier le jargon de l’IA: la « Jagged Frontier »

    La « frontière dentelée » ou quand Harvard découvre les données d’entraînement

    Aujourd’hui, le pompon : la « frontière technologique dentelée » (jagged frontier).

    Des chercheurs de Harvard ont découvert que l’IA performe de manière inégale. Brillante en écriture créative, nulle en maths de base. Excellente pour générer des idées, catastrophique en raisonnement logique.

    Leur conclusion révolutionnaire ? Les capacités de l’IA forment une « frontière dentelée ».

    Permettez-moi de vous révéler le secret : ils ont testé l’IA sur des tâches où elle avait de bonnes données d’entraînement versus des tâches où elle n’en avait pas. Surprise – elle performe mieux sur le premier groupe.

    N’importe quel ingénieur ML aurait pu leur dire ça. Les capacités de l’IA reflètent directement la distribution des données d’entraînement.

    • Beaucoup d’exemples = bonne performance.
    • Peu d’exemples = performance médiocre.
    • Cas limites = résultats imprévisibles.

    L’étude de Harvard a essentiellement conçu des tâches pour faire échouer l’IA, puis a exprimé sa surprise face aux échecs. Ils ont créé des exercices nécessitant la synthèse de données numériques avec des indices contextuels subtils enterrés dans du texte – exactement le type de raisonnement multi-modal avec lequel les architectures actuelles peinent.

    Cette « frontière dentelée » n’est pas mystérieuse – c’est le résultat prévisible de la façon dont ces systèmes sont construits. Comprendre la méthodologie d’entraînement vous donne un véritable pouvoir prédictif sur le comportement de l’IA.

    Le terme sert le complexe consultant-académique qui a besoin de conférences et d’heures facturables.

    Demain : les « capacités émergentes » – le boss final de la mystification IA.

  • Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Après les prompts et l’attention, attaquons-nous au « chain-of-thought reasoning » – le terme qui transforme la génération de texte en méditation philosophique.

    La découverte initiale est réelle : quand on demande à l’IA de « réfléchir étape par étape » ou « montrer son raisonnement », les réponses s’améliorent drastiquement. Les chercheurs y ont vu une révolution cognitive.

    Erreur d’interprétation massive.

    Voici la réalité : le modèle génère du texte intermédiaire qui corrèle avec de meilleures réponses finales. Il ne raisonne pas – il produit du pattern matching verbeux.

    Analogie : un étudiant qui écrit les étapes d’un calcul ne raisonne pas forcément mieux, il suit juste un format qui réduit les erreurs. Pareil pour l’IA.

    Le modèle a appris que certains patterns textuels (structures étape-par-étape) apparaissent près des bonnes réponses dans les données d’entraînement. Quand il génère ces patterns, il touche plus souvent dans le mille statistique.

    C’est de l’autocomplete sophistiqué, pas du dialogue socratique.

    Cette confusion sémantique crée des attentes délirantes. On s’attend à une compréhension profonde alors qu’on a affaire à de la génération structurée qui corrèle avec la précision.

    Le vrai breakthrough ? La verbosité améliore l’exactitude. C’est de l’ingénierie utile, même si ce n’est pas du raisonnement.

    Comprendre cette distinction change tout : vous ne demandez pas à l’IA de penser, vous lui demandez de générer dans un format qui corrèle avec la justesse.

    Demain : la « jagged frontier » ou comment les mots cachent la réalité des données d’entraînement.

  • Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Hier, le « prompt engineering« . Aujourd’hui, penchons-nous sur les « mécanismes d’attention » – probablement la métaphore la plus trompeuse de l’IA moderne.

    L’histoire commence en 2017 avec un paper au titre genial : « Attention Is All You Need ». Les chercheurs découvrent qu’en pondérant différemment les parties des données d’entrée, ils améliorent drastiquement les performances des modèles. Breakthrough technique remarquable.

    Mais l’appeler « attention » ? Pure manipulation sémantique.

    Soudain, tout le monde imagine l’IA « se concentrant » comme un étudiant attentif. Les journalistes tech parlent d’IA « focalisée » et « contemplative ». Les investisseurs visualisent des esprits artificiels méditant sur les données.

    La réalité ? De la multiplication matricielle sophistiquée.

    Le modèle assigne des poids numériques aux différents éléments d’entrée. Poids élevé = influence plus forte sur la sortie. C’est tout. Comme un système de vote pondéré, pas une conscience qui « fait attention ».

    Cette confusion linguistique transforme des maths excellentes en mystère pseudo-cognitif. Au lieu de dire « nous avons amélioré notre algorithme de pondération », on entend « révolutionnaires mécanismes d’attention qui permettent la conscience artificielle ».

    Le problème ? Quand vous pensez que l’IA « fait attention » comme les humains, vous attendez une compréhension humaine. Quand vous réalisez que c’est de la pondération statistique, vous pouvez vraiment prédire et contrôler son comportement.

    Les mécanismes d’attention mathématiques : révolutionnaires. L’attention cognitive : inexistante.

    Demain : le « raisonnement en chaîne de pensée » ou comment l’IA a appris à montrer ses calculs.

  • Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Avouons-le : l’industrie tech adore transformer des concepts basiques en révolutions. Et « Prompt Engineering » est probablement l’exemple le plus flagrant.

    J’observe cette comédie depuis des mois. Des formations à plusieurs milliers d’euros pour apprendre à « engineer des prompts ». Des LinkedIn pleins de « Prompt Engineers » fraîchement diplômés. Des conférences où l’on vous explique doctement les « meilleures pratiques » de cette « discipline émergente ».

    Mais derrière ce vernis académique, qu’est-ce qu’on trouve ?

    Du trial and error avec des instructions. Point.

    Quand vous reformulez une question à ChatGPT parce que la première tentative vous a donné n’importe quoi – félicitations, vous faites du « prompt engineering ». Quand vous ajoutez « sois précis » ou « réfléchis étape par étape » pour obtenir de meilleurs résultats – vous êtes désormais un ingénieur des prompts.

    Cette mystification m’agace parce qu’elle cache une vérité plus simple et plus utile : ces systèmes fonctionnent comme des perroquets statistiques sophistiqués. Comprendre ça vous rend plus efficace que tous les cours de « prompt engineering » du monde.

    L’ingénierie, la vraie, implique des méthodes systématiques, des principes scientifiques, des résultats prévisibles et déterministes. Le « prompt engineering » ? C’est plutôt « essayons cette formulation et voyons ce qui arrive ».

    Certes des structures de prompts sont meilleures que d’autres, comme certaines personnes sont meilleures que d’autres pour articuler une demande. C’est de la communication, pas de l’ingénierie !

    Cette semaine, je démonte cinq termes qui transforment la réalité technique en mystère ésotérique. Parce que comprendre comment ces systèmes fonctionnent vraiment vaut mieux que de paraître intelligent dans les dîners parisiens.

    Demain : pourquoi les « mécanismes d’attention » ne font attention à rien du tout.