Épisode 28 – RAG, multimodalité & contextualisation: comment rendre l’IA fiable en entreprise ? Avec Amélie Chatelain (LightOn)
Comment donner une mémoire fiable aux intelligences artificielles ? À l’ère des agents IA et des modèles génératifs ultra-puissants, la question de la fiabilité et de la pertinence contextuelle n’a jamais été aussi pressante. Est-ce que la simple augmentation de la capacité des modèles est la seule réponse, ou existe-t-il des approches plus fines et plus efficaces pour ancrer l’IA dans la réalité de l’entreprise ?
C’est la question centrale explorée dans ce nouvel épisode de « Changement d’époque en cours », où nous recevons Amélie Chatelain, Head of Knowledge & Search chez LightOn. Son parcours unique, de l’astrophysique à la pointe de l’IA en entreprise, offre une perspective éclairante sur les enjeux cruciaux de l’intelligence artificielle contextuelle.
Retrouvez cet épisode sur votre plateforme préférée
![]() |
![]() |
![]() |
![]() |
![]() |
Le RAG est-il mort ? Longue vie à la recherche d’information !
La course aux « grandes fenêtres de contexte » a-t-elle sonné le glas du Retrieval Augmented Generation (RAG) ? Amélie Chatelain répond par la négative et déconstruit cette idée reçue. Si les modèles d’IA peuvent désormais ingérer des milliers de pages, cette capacité brute n’est pas sans coût ni sans défaut. « Plus il y a d’informations dans une requête, plus l’information pertinente est diluée et le modèle a des difficultés à retrouver l’aiguille dans la meule de foin, » explique-t-elle.
À quoi bon confier un rapport de 200 pages à votre IA si elle invente les chiffres clés ? Le RAG, cette capacité à coupler un modèle de langage avec un moteur de recherche interne, s’impose comme une nécessité pour assurer la pertinence, la frugalité et la précision des réponses en entreprise. C’est l’assistant de recherche qui pose les documents pertinents sur le « bureau » du modèle, lui offrant une « mémoire » fiable et ciblée.
Au-delà du texte : quand l’IA voit et comprend les images
Comment l’IA peut-elle « lire » un plan technique, un schéma complexe ou un tableau crucial pour votre business ? Le texte seul ne suffit plus, et nous le savons tous. Amélie Chatelain met en lumière l’essor du « visual RAG », une avancée cruciale dans l’IA multimodale.
LightOn a développé « un reranker texte image, c’est-à-dire un modèle qui est effectivement capable de dire étant donné cette question et cette image, est-elle pertinente pour répondre à la question, oui ou non ? » Cette capacité à analyser et à rendre pertinente l’information visuelle transforme la recherche, permettant à l’IA d’accéder à une richesse de données jusqu’alors inexploitée. Une étape indispensable pour les entreprises dont les bases documentaires regorgent d’éléments non textuels.
Les agents IA : ces orchestrateurs qui changent la donne
L’arrivée des agents IA redéfinit-elle le rôle du RAG et de la contextualisation ? Loin de le rendre obsolète, Amélie Chatelain affirme que les agents rendent le RAG « plus essentiel que jamais ». Ces systèmes, capables d’utiliser des outils et de prendre des décisions, intègrent le RAG comme un levier stratégique.
Ils peuvent chercher l’information pertinente au bon moment, de manière non linéaire, et même enchaîner plusieurs recherches pour fournir des réponses d’une richesse inégalée. La pipeline linéaire du RAG cède la place à une orchestration intelligente où la capacité à saisir et à exploiter le contexte devient la pierre angulaire de l’efficacité et de la fiabilité des intelligences artificielles.
Évaluation et frugalité : les piliers d’une IA d’entreprise durable
Dans un monde de l’IA en perpétuelle effervescence, comment s’assurer que les modèles sont réellement performants et adaptés à vos besoins ? Amélie Chatelain insiste sur l’importance de l’évaluation rigoureuse à chaque étape. Face au « bench maxing » (l’optimisation des modèles pour les benchmarks sans garantir la performance réelle), une évaluation interne est cruciale.
Par ailleurs, la frugalité n’est pas qu’un principe écologique ; c’est un impératif économique. Optimiser l’utilisation des ressources, notamment des GPU rares, et construire des systèmes intelligents capables de cibler l’information pertinente réduit considérablement les coûts d’inférence. Une stratégie d’IA durable et rentable passe inévitablement par cette quête d’efficacité et de précision.
Vous avez des questions sur cet épisode ?
Vous voulez nous soumettre une idée d’épisode, d’invité ?
Écrivez-nous à changement@converteo.com
Changement d’époque en cours est un podcast réalisé par Converteo.
L’émission est présentée par Laurent Nicolas-Guennoc.




