Auteur/autrice : marc

  • Les « capacités émergentes » ou l’ultime mystification de l’IA

    Les « capacités émergentes » ou l’ultime mystification de l’IA

    Pour finir en beauté cette semaine de démystification : les « capacités émergentes » – le terme qui transforme les effets d’échelle en magie computationnelle.

    Le narratif est séduisant : quand les systèmes d’IA grossissent, ils développent spontanément des capacités que personne n’a programmées. Des aptitudes « émergent » de la complexité comme la conscience naîtrait de la matière.

    Bullshit total.

    Voici la réalité : franchissement de seuils d’utilisabilité.

    Tout système computationnel a des capacités qui existent mais sont en deçà de niveaux de qualité utiles. Quand vous ajoutez plus de paramètres, de données d’entraînement et de puissance de calcul, certaines de ces capacités passent de « techniquement possible mais inutile » à « réellement fonctionnel ».

    Les capacités n’émergent pas – elles étaient toujours mathématiquement possibles dans l’architecture du système. Elles étaient juste nulles jusqu’à atteindre l’échelle suffisante pour devenir utilisables.

    C’est comme prétendre que des « capacités de conduite émergent » quand vous mettez enfin assez d’essence dans votre voiture pour démarrer le moteur. La voiture était toujours capable de rouler – elle avait juste besoin de carburant suffisant pour fonctionner.

    Pareil pour l’IA. Les opérations mathématiques pour le raisonnement complexe existent aussi dans les petits modèles. Elles ne sont simplement pas fiables ou utiles jusqu’à atteindre l’échelle suffisante.

    Cette semaine, nous avons démonté cinq termes qui mystifient l’ingénierie de base. Le pattern est constant : prendre du progrès technique normal, l’enrober de métaphores biologiques/cognitives, et soudain vous avez des percées révolutionnaires.

    Comprendre vaut mieux que mystifier. À chaque fois.

  • Démystifier le jargon de l’IA: la « Jagged Frontier »

    Démystifier le jargon de l’IA: la « Jagged Frontier »

    La « frontière dentelée » ou quand Harvard découvre les données d’entraînement

    Aujourd’hui, le pompon : la « frontière technologique dentelée » (jagged frontier).

    Des chercheurs de Harvard ont découvert que l’IA performe de manière inégale. Brillante en écriture créative, nulle en maths de base. Excellente pour générer des idées, catastrophique en raisonnement logique.

    Leur conclusion révolutionnaire ? Les capacités de l’IA forment une « frontière dentelée ».

    Permettez-moi de vous révéler le secret : ils ont testé l’IA sur des tâches où elle avait de bonnes données d’entraînement versus des tâches où elle n’en avait pas. Surprise – elle performe mieux sur le premier groupe.

    N’importe quel ingénieur ML aurait pu leur dire ça. Les capacités de l’IA reflètent directement la distribution des données d’entraînement.

    • Beaucoup d’exemples = bonne performance.
    • Peu d’exemples = performance médiocre.
    • Cas limites = résultats imprévisibles.

    L’étude de Harvard a essentiellement conçu des tâches pour faire échouer l’IA, puis a exprimé sa surprise face aux échecs. Ils ont créé des exercices nécessitant la synthèse de données numériques avec des indices contextuels subtils enterrés dans du texte – exactement le type de raisonnement multi-modal avec lequel les architectures actuelles peinent.

    Cette « frontière dentelée » n’est pas mystérieuse – c’est le résultat prévisible de la façon dont ces systèmes sont construits. Comprendre la méthodologie d’entraînement vous donne un véritable pouvoir prédictif sur le comportement de l’IA.

    Le terme sert le complexe consultant-académique qui a besoin de conférences et d’heures facturables.

    Demain : les « capacités émergentes » – le boss final de la mystification IA.

  • Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Jour 3 : le « chain-of-though reasoning » ou l’art de confondre autocomplete et Socrate

    Après les prompts et l’attention, attaquons-nous au « chain-of-thought reasoning » – le terme qui transforme la génération de texte en méditation philosophique.

    La découverte initiale est réelle : quand on demande à l’IA de « réfléchir étape par étape » ou « montrer son raisonnement », les réponses s’améliorent drastiquement. Les chercheurs y ont vu une révolution cognitive.

    Erreur d’interprétation massive.

    Voici la réalité : le modèle génère du texte intermédiaire qui corrèle avec de meilleures réponses finales. Il ne raisonne pas – il produit du pattern matching verbeux.

    Analogie : un étudiant qui écrit les étapes d’un calcul ne raisonne pas forcément mieux, il suit juste un format qui réduit les erreurs. Pareil pour l’IA.

    Le modèle a appris que certains patterns textuels (structures étape-par-étape) apparaissent près des bonnes réponses dans les données d’entraînement. Quand il génère ces patterns, il touche plus souvent dans le mille statistique.

    C’est de l’autocomplete sophistiqué, pas du dialogue socratique.

    Cette confusion sémantique crée des attentes délirantes. On s’attend à une compréhension profonde alors qu’on a affaire à de la génération structurée qui corrèle avec la précision.

    Le vrai breakthrough ? La verbosité améliore l’exactitude. C’est de l’ingénierie utile, même si ce n’est pas du raisonnement.

    Comprendre cette distinction change tout : vous ne demandez pas à l’IA de penser, vous lui demandez de générer dans un format qui corrèle avec la justesse.

    Demain : la « jagged frontier » ou comment les mots cachent la réalité des données d’entraînement.

  • Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Démystifier le jargon IA : les « mécanismes d’attention » ou quand les maths font semblant d’avoir une conscience

    Hier, le « prompt engineering« . Aujourd’hui, penchons-nous sur les « mécanismes d’attention » – probablement la métaphore la plus trompeuse de l’IA moderne.

    L’histoire commence en 2017 avec un paper au titre genial : « Attention Is All You Need ». Les chercheurs découvrent qu’en pondérant différemment les parties des données d’entrée, ils améliorent drastiquement les performances des modèles. Breakthrough technique remarquable.

    Mais l’appeler « attention » ? Pure manipulation sémantique.

    Soudain, tout le monde imagine l’IA « se concentrant » comme un étudiant attentif. Les journalistes tech parlent d’IA « focalisée » et « contemplative ». Les investisseurs visualisent des esprits artificiels méditant sur les données.

    La réalité ? De la multiplication matricielle sophistiquée.

    Le modèle assigne des poids numériques aux différents éléments d’entrée. Poids élevé = influence plus forte sur la sortie. C’est tout. Comme un système de vote pondéré, pas une conscience qui « fait attention ».

    Cette confusion linguistique transforme des maths excellentes en mystère pseudo-cognitif. Au lieu de dire « nous avons amélioré notre algorithme de pondération », on entend « révolutionnaires mécanismes d’attention qui permettent la conscience artificielle ».

    Le problème ? Quand vous pensez que l’IA « fait attention » comme les humains, vous attendez une compréhension humaine. Quand vous réalisez que c’est de la pondération statistique, vous pouvez vraiment prédire et contrôler son comportement.

    Les mécanismes d’attention mathématiques : révolutionnaires. L’attention cognitive : inexistante.

    Demain : le « raisonnement en chaîne de pensée » ou comment l’IA a appris à montrer ses calculs.

  • Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Démystifier le jargon IA : quand « Prompt Engineering » cache une simple réalité

    Avouons-le : l’industrie tech adore transformer des concepts basiques en révolutions. Et « Prompt Engineering » est probablement l’exemple le plus flagrant.

    J’observe cette comédie depuis des mois. Des formations à plusieurs milliers d’euros pour apprendre à « engineer des prompts ». Des LinkedIn pleins de « Prompt Engineers » fraîchement diplômés. Des conférences où l’on vous explique doctement les « meilleures pratiques » de cette « discipline émergente ».

    Mais derrière ce vernis académique, qu’est-ce qu’on trouve ?

    Du trial and error avec des instructions. Point.

    Quand vous reformulez une question à ChatGPT parce que la première tentative vous a donné n’importe quoi – félicitations, vous faites du « prompt engineering ». Quand vous ajoutez « sois précis » ou « réfléchis étape par étape » pour obtenir de meilleurs résultats – vous êtes désormais un ingénieur des prompts.

    Cette mystification m’agace parce qu’elle cache une vérité plus simple et plus utile : ces systèmes fonctionnent comme des perroquets statistiques sophistiqués. Comprendre ça vous rend plus efficace que tous les cours de « prompt engineering » du monde.

    L’ingénierie, la vraie, implique des méthodes systématiques, des principes scientifiques, des résultats prévisibles et déterministes. Le « prompt engineering » ? C’est plutôt « essayons cette formulation et voyons ce qui arrive ».

    Certes des structures de prompts sont meilleures que d’autres, comme certaines personnes sont meilleures que d’autres pour articuler une demande. C’est de la communication, pas de l’ingénierie !

    Cette semaine, je démonte cinq termes qui transforment la réalité technique en mystère ésotérique. Parce que comprendre comment ces systèmes fonctionnent vraiment vaut mieux que de paraître intelligent dans les dîners parisiens.

    Demain : pourquoi les « mécanismes d’attention » ne font attention à rien du tout.