Non l’analyse media n’est pas un « vieux machin »

Chez Data Observer, les marseillais n’ont jamais vraiment compris ce que faisaient leurs collègues parisiens avec “l’analyse média”. Un mystère de la capitale, sans doute : des tableaux pleins de verbatims, des codifications interminables, des histogrammes sur la tonalité ou la polarisation des retombées, des camemberts indigestes, …

Alors forcément, quand les IA génératives ont débarqué, certains se sont dit : « Enfin ! On va pouvoir ranger tout ça au musée des méthodes d’un autre temps. »
Erreur : l’analyse média n’a jamais été aussi vivante. Elle change, se transforme, se réinvente – comme toutes les pratiques qui ont un vrai fond.

L’effet miroir linguistique : quand le langage humain se pense à travers la machine.

Nous nous étions déjà interrogés sur l’usage des pronoms personnels dans les chatbots, sans toutefois pousser la réflexion au-delà de quelques échanges ou observations. L’entretien entre Anne Alombert et Jonathan Bourguignon (Le Monde, 4 octobre 2025) est venu réactiver cette réflexion, en formulant une proposition radicale :

« On pourrait exiger que les chatbots n’utilisent pas le pronom « je » pour éviter les projections anthropomorphiques et la dépendance émotionnelle. »

Un LLM ne raisonne pas il raconte le raisonnement

Cette affirmation est-elle juste un « bon mot », un « mot d’esprit » ou mérite-t-elle qu’on s’y attarde ?

Dans le quotidien de nos missions, elle est centrale. Prenons l’exemple d’un système de planification multi-critères. Ce problème ne peut être résolu de manière autonome par un modèle linguistique. Un LLM ne peut pas le résoudre : « Le LLM ne planifie pas, il raconte la planification ». En revanche, il peut très bien énoncer les conditions de sa résolution qui requiert une collaboration avec des acteurs humains et techniques…