L’humain, champion du monde du « few-shot learning »

Les chercheurs en IA sont fiers d’annoncer que leurs modèles peuvent faire du « few-shot learning » : apprendre avec quelques exemples seulement.

Quelques exemples ? Genre 5, 10, 50 ?

Pour le moment, tout ceci est pathétique comparé à un enfant humain (et cela changera dans le futur, bien sûr).

Montrez un chat à un enfant de 3 ans. Une seule fois. Ensuite, il reconnaît tous les chats : persans, siamois, tigres, lions, dessins animés de chats, sculptures de chats. Il généralise instantanément le concept.

ChatGPT-4 ? Il a ingéré des millions (milliards ?) d’images avant de pouvoir identifier un chat. Et même après, montrez-lui un chat stylisé, en origami, en ombre chinoise, il peut échouer.

Pourquoi cette différence hallucinante ?

Parce que l’apprentissage humain n’est pas basé sur la mémorisation de patterns statistiques. Il est basé sur la construction de MODÈLES CONCEPTUELS du monde.

Steven Pinker, dans « The Blank Slate », démontre que nous ne sommes pas des ardoises vierges. Nous naissons avec des structures cognitives innées — grammaire universelle, physique intuitive, psychologie naïve — qui nous permettent d’apprendre de façon explosive.

Un enfant apprend le concept de « cassé » et l’applique instantanément à des milliers d’objets jamais rencontrés : verre cassé, jouet cassé, cœur cassé.

L’IA ? Elle doit être réentraînée pour chaque nouveau domaine. Le « transfer learning » de l’IA est une blague comparé au transfert conceptuel humain.

Yuval Noah Harari note dans « Sapiens » que notre capacité à créer et manipuler des abstractions — à apprendre des concepts, pas des exemples — est ce qui nous a permis de dominer la planète.

L’IA apprend à reproduire. L’humain apprend à comprendre.

Nuance gigantesque.


Sources :

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *