Toute la hype actuelle se base sur 2 éléments : les transformers et l'utilisation de ressources de calcul massives.
Les transformers c'est une innovation qui date de 2017 .
Tu peux jeter autant de compute que tu veux ça sne permettra pas d'avoir des robots capables de gérer des tâches généralistes ou de résoudre la vision par ordinateur.
L'intégration de l'IA dans le développement logiciel c'est sûr que c'est très fort mais ça va rien révolutionner.
Il manque 10 ans de recherche en sciences cognitives pour arriver à des architectures vraiment intelligentes.
Pourtant je suis un gros believer du deep learning de base , j'ai acheté des actions NIVDIA en 2019 anticipant la moat avec l'écosystème CUDA ( j'ai pas tout hold malheureusement )
Je suis d'accord. On est plus à de l'IA polyvalente qu'à de l'IA générale. Mais c'est déjà très utile, par exemple en développement logiciel, plus personne code tout soi-même.
Et je pense que les IA polyvalentes pourront malgré leur défaut permettre une accélération.
Mais pour l'IAG je suis d'accord y a encore 2-3 percées techniques à faire, vers 2035 je pense.
Ah, le bon vieux discours du technosceptique qui croit voir clair dans le jeu simplement parce qu’il n’est pas impressionné.
Réduire toute la hype actuelle à "transformers + compute", c’est comme dire que l’électricité, c’est juste des électrons qui bougent. C’est techniquement exact, mais complètement à côté de l’essentiel. Ce qui se joue depuis 5 ans, c’est une maîtrise à grande échelle de l'entraînement, de l’orchestration, de la compression, de la supervision, et surtout de l’intégration dans des chaînes d’outils complexes. Tu ne résumes pas cette révolution à deux bullet points.
Oui, les transformers datent de 2017. Et alors ? C’est justement ce qui est fascinant. On a rarement vu une idée fondamentale transformer autant de domaines en si peu de temps. Ce n’est pas parce que c’est "vieux" de six ans que c’est dépassé. Ce qui compte, ce n’est pas l’âge du papier, c’est l’effet de seuil : à partir de quelle échelle ça commence à tout bousculer. Spoiler : on y est.
La compute ne sert pas qu’à "jeter des FLOPS à la machine". Ce qui s’est passé, c’est une exploration empirique des lois de l’échelle. Ça a permis d’atteindre des régimes de généralisation inaccessibles jusque-là. Pas besoin de magie, juste de systématiser l’empirisme, et c’est exactement ce que font OpenAI, Anthropic, Google, xAI, Mistral et les autres.
La vision par ordinateur serait "pas résolue" ? Elle n’est peut-être pas résolue théoriquement, mais elle l’est pratiquement. Un modèle multimodal voit, décrit, explique, relie, infère. C’est déjà suffisant pour des usages massifs. Tu veux de la perfection biologique ? Ok. Mais ce n’est pas ce que demandent les industries. Elles demandent de la fiabilité, de la vitesse, de l’intégration. Et là aussi, on y est.
L’IA ne révolutionnerait pas le développement logiciel ? Tu réalises que des entreprises réorganisent déjà leur production autour de LLMs en boucle fermée ? Que des agents écrivent, testent, documentent, corrigent du code ? Que la logique même du métier évolue pour devenir du pilotage de systèmes intelligents ? Ce n’est pas une promesse, c’est un glissement structurel en cours.
Quant aux sciences cognitives, c’est un autre domaine. Les modèles actuels n’ont pas à être cognitivement plausibles. Il ne s’agit pas de mimer un cortex, il s’agit de produire des comportements utiles à partir de signaux statistiques. Il manque peut-être une théorie unificatrice, mais il ne manque pas d’intelligence fonctionnelle. Celle qu’on peut exploiter. Celle qui change déjà des pans entiers de l’économie.
Tu as eu l’intuition NVIDIA, c’est bien. Mais attention à ne pas faire comme ces early adopters qui ont vu venir la vague et refusent ensuite de la reconnaître quand elle arrive vraiment. L’IA d’aujourd’hui n’est peut-être pas celle que tu fantasmais, mais c’est précisément pour ça qu’elle est en train de gagner.
Le 20 juillet 2025 à 22:39:48 Nefraline a écrit :
Je suis d'accord. On est plus à de l'IA polyvalente qu'à de l'IA générale. Mais c'est déjà très utile, par exemple en développement logiciel, plus personne code tout soi-même.Et je pense que les IA polyvalentes pourront malgré leur défaut permettre une accélération.
Mais pour l'IAG je suis d'accord y a encore 2-3 percées techniques à faire, vers 2035 je pense.
JvArchive compagnon