Intelligence Artificielle Générale
La Schizophrénie de la Silicon Valley
Le terme “IA” est devenu une étiquette pour désigner simplement “les trucs nouveaux”. Quant à l’AGI (Intelligence Artificielle Générale), c’est “le truc nouveau qui fait peur”. Pour Benedict Evans, analyste de référence et ancien partenaire chez a16z, nous sommes coincés dans un paradoxe temporel : l’AGI est soit déjà là (sous forme de logiciel), soit elle est à cinq ans de nous... et le restera pour toujours.
Pendant que Sam Altman nous vend des chercheurs de niveau PhD “dans la boîte” pour l’année prochaine, la réalité du terrain raconte une histoire différente. De nombreux experts majeurs du secteur tirent la sonnette d’alarme sur l’incapacité des technologies actuelles à atteindre une véritable “intelligence”. Yann LeCun, ex-Chief AI Scientist chez Meta, martèle que les LLM manquent de modèles du monde, de raisonnement et de planification, et qu’ils ne sont finalement qu’une impasse pour l’AGI. Luc Julia, co-créateur de Siri, va encore plus loin en affirmant que “l’intelligence artificielle n’existe pas” et que nous ne faisons que des statistiques sophistiquées, bien loin de la conscience ou de l’autonomie.
Nous ne vivons pas encore l’apocalypse du travail, mais un changement de plateforme aussi massif que l’ont été le Web ou le Mobile.
Le paradoxe des 900 millions d’utilisateurs “perdus”
ChatGPT a franchi la barre des 900 millions d’utilisateurs actifs hebdomadaires. C’est une anomalie statistique. Pourtant, Evans soulève une question qui pique : pourquoi 80% de ces gens, après avoir créé un compte, ne savent-ils toujours pas quoi en faire la semaine suivante ?
La réponse est technologique : ChatGPT n’est pas encore un produit. C’est un chatbot déguisé en produit.
Dans un logiciel classique (Salesforce, Workday, ou Airbnb), des milliers d’ingénieurs ont passé des années à réduire vos options à sept boutons. Ils ont mâché le travail, défini le flux, et éliminé la friction de la réflexion. Avec un LLM, on vous jette face à un curseur clignotant et on vous demande de redéfinir votre métier à partir de “premiers principes”.
Le futur du travail ne sera pas une conversation avec un bot généraliste. Ce sera l’intégration invisible de cette puissance dans des outils verticaux où l’utilisateur n’aura pas à devenir un “prompt engineer” pour obtenir un résultat. On ne veut pas “chatter” avec ses données, on veut que le problème soit résolu.
L’Armée des Internes Infinis (et Incompétents)
L’analogie la plus structurante d’Evans pour définir l’impact sur l’emploi est celle des “Internes Infinis”.
Imaginez que vous ayez accès à une main-d’œuvre illimitée, ultra-rapide, mais capable de se tromper avec une assurance totale.
Le gain : Pour le marketing ou le code, générer 100 itérations pour en choisir une seule est une révolution de productivité.
Le risque : Si vous demandez à l’IA d’extraire des données de 200 PDF et que vous devez vérifier chaque chiffre parce que “l’interne” a halluciné la moitié des résultats, vous n’avez pas gagné de temps. Vous avez juste déplacé la fatigue cognitive.
Le futur du travail, c’est le passage du rôle de “Faiseur” à celui d’“Éditeur”. Nous allons gérer des flux de travail synthétiques. Mais attention : si votre seule valeur ajoutée est la saisie de données ou la synthèse de base, vous êtes dans la ligne de mire. Non pas parce que l’IA est “intelligente”, mais parce qu’elle est “suffisamment bonne” pour rendre votre coût humain prohibitif.
Le Grand Dégroupage : Pourquoi le Modèle n’est pas la Destination
Nous vivons une période de schizophrénie totale. D’un côté, on nous dit que le modèle (le LLM) fera tout. De l’autre, on construit des couches d’API massives pour permettre aux développeurs de... faire du logiciel.
Evans nous rappelle la leçon de Microsoft dans les années 2000 : vous pouvez perdre la guerre des plateformes (le web, puis le mobile) et quand même vendre dix fois plus de PC parce que l’infrastructure sous-jacente reste la vôtre.
Le futur du travail ne se jouera pas sur “quel modèle est le plus puissant selon le dernier benchmark” (ils finissent tous par converger), mais sur la distribution. Les gagnants seront ceux qui possèdent déjà le flux de travail :
Les cabinets d’avocats n’achèteront pas de l’IA brute d’OpenAI. Ils achèteront une mise à jour de leur logiciel de gestion de litiges qui inclut de l’IA de manière transparente.
L’IA va “déphaser” les industries protégées par l’ennui et la complexité administrative. Si votre business model repose sur le fait que vos processus sont trop pénibles pour être automatisés, l’IA est votre extinction programmée.
1999 ou 2007 ?
Sommes-nous dans une bulle ? “Si nous n’y sommes pas encore, nous y serons bientôt”, s’amuse Evans. Mais le vrai sujet n’est pas là. Le web était une bulle en 1999, ce qui ne l’a pas empêché de dévorer le monde les vingt années suivantes.
L’AGI, c’est l’ascenseur automatique des années 50. Au début, Otis le vendait comme une prouesse de “politesse électronique”. Aujourd’hui, on appuie juste sur le bouton “4”. C’est devenu invisible.
Le futur du travail à l’ère de l’IA, c’est le moment où nous arrêterons d’en parler comme d’une révolution pour l’utiliser comme une simple commodité logicielle.
Et vous, quel levier actionnez-vous ?
Si votre stratégie consiste à attendre que ChatGPT résolve vos problèmes métiers, vous faites partie des 80% qui attendent face à un curseur vide. La vraie question n’est pas de savoir si l’AGI arrive, mais si vous êtes prêt à devenir l’éditeur de votre propre armée d’internes.
Source :


