Il y a quelques mois, j’écrivais sur l’importance de comprendre les Large Language Models (LLMs), ces outils technologiques qui façonnent notre quotidien, qu’on le veuille ou non.
Aujourd’hui, ils continuent de s’imposer comme une brique incontournable, tant dans le monde professionnel que dans la sphère publique.
Pourtant, leur adoption soulève autant d’enthousiasme que de questions. Notamment parce qu’elle engendre des externalités négatives largement anticipées.
Entre la promesse d’une productivité accrue et la réalité de leur fonctionnement, il y a un fossé qu’il est urgent de combler.
La productivité, un leurre bien pratique
On nous vend les LLMs comme des outils miracles, capables de booster notre efficacité, de réduire les coûts et d’automatiser des tâches répétitives. La pression est forte : il faut maîtriser cette technologie, sous peine de se retrouver à la traîne. Pourtant, cette course à la productivité cache une réalité plus complexe.
D’abord, on nous encourage rarement à comprendre ce qui se cache derrière ces modèles. Peu de discussions sur les conditions matérielles de leur production : les matières premières nécessaires à la fabrication des data centers, la consommation colossale d’énergie et d’eau, ou encore la sous-traitance de tâches ingrates à une main-d’œuvre souvent précaire et mal payée. Ces aspects sont relégués au second plan, comme s’ils n’étaient que des détails techniques sans importance.
Ensuite, on insiste peu sur les forces et les faiblesses réelles des LLMs. Leur imprédictabilité en fait des outils difficiles à auditer : la qualité de leurs réponses est rarement contrôlée de manière rigoureuse. On se contente souvent de valider des corpus de réponses ou de s’appuyer sur des retours utilisateurs, sans toujours questionner la pertinence ou la fiabilité des résultats.
Dans les années à venir, je prédis une extension massive des équipes dédiées à l’analyse qualité, notamment pour auditer les interactions et intégrations avec ces modèles. Car oui, un outil puissant mais imprévisible nécessite une supervision largement accrue.
L’apprentissage par l’expérimentation : entre bricolage et improvisation
L’usage des LLMs repose aujourd’hui sur une forme d’apprentissage empirique. Les utilisateurs testent, observent, ajustent leurs prompts, et inventent des modalités d’usage au fil de l’eau. On apprend en faisant, mais aussi en s’inspirant de recommandations dont on ne mesure pas toujours la qualité.
Par exemple, certains recommandent d’utiliser des modèles rédactionnels comme le MCP (Map, Cluster, Package) pour structurer ses prompts. D’autres suggèrent d’intégrer du pseudo-code pour guider le modèle. Mais ces conseils, souvent partagés sans contexte ni validation, peuvent mener à des résultats très variables. Le format « langage naturel » laisse une large place à la subjectivité, et un prompt qui fonctionne pour l’un peut échouer pour l’autre.
Pire, les LLMs ont parfois des comportements inattendus. Ils inventent des sources, omettent de citer leurs références malgré les consignes, ou produisent des réponses qui sortent manifestement du cadre demandé. Ces écarts rappellent une évidence : ces outils ne sont pas infaillibles. Leur utilisation nécessite une vigilance constante, une capacité à questionner leurs outputs, et une remise en cause permanente de leurs limites.
L’orchestration d’agents : quand le management devient algorithmique
Face à la complexité des tâches, une solution émerge : l’orchestration d’agents spécialisés. Chaque agent est conçu pour une mission précise, avec un prompt affiné et des marges d’erreur réduites. Organiser une tâche complexe revient alors à la découper en sous-tâches, à les distribuer aux agents les plus pertinents, et à superviser leur collaboration.
Cette approche rappelle étrangement le management d’équipe, mais sans la dimension humaine. Pas de conflits à gérer, pas de variations de productivité, pas de problèmes personnels. Juste des agents qui exécutent, toujours au même rythme, sans jamais se plaindre. En revanche, ces agents sont plus énergivores, plus faillibles sur certains aspects, et surtout, infiniment moins résilients qu’un être humain.
Ce qui frappe, c’est de voir des managers expliquer avec une précision chirurgicale ce qu’ils attendent d’un agent automatisé, alors qu’ils peinent parfois à le faire avec leurs équipes humaines. Est-ce par manque de transparence ? Par peur des conflits ? Ou simplement par lâcheté, en refusant d’investir dans la formation et l’accompagnement de leurs collaborateurs ?
Un management sans émotion, mais à quel prix ?
On en arrive à une situation paradoxale : on préfère instruire des agents moins expérimentés, moins qualifiés et plus énergivores que des salariés, pour des tâches parfois cruciales. Tout cela parce qu’on refuse de construire avec des humains, d’investir dans leur avenir, de leur faire confiance.
Les LLMs ne sont pas une fin en soi. Ils sont un outil, avec ses forces et ses limites. Les utiliser de manière pertinente, c’est d’abord comprendre leurs rouages, leurs coûts, et leurs impacts. C’est aussi accepter qu’ils ne remplaceront jamais totalement l’intelligence humaine, la créativité, ou la capacité à gérer l’imprévu.
Alors, avant de se précipiter tête baissée dans l’automatisation, posons-nous les bonnes questions : Quelle valeur ajoutée recherchons-nous vraiment ? À quel prix ? Et surtout, quel monde voulons-nous construire avec ces outils ?
Et vous, comment utilisez-vous les LLMs dans votre quotidien ? Quelles limites ou opportunités avez-vous identifiées ?