Étude – Les Français et l’IA agentique : les chiffres 2026
64 % des Français utilisent l’IA. 10 % seulement acceptent qu’elle décide à leur place. Pour la plupart des éditeurs et des directions produit, ces deux chiffres composent un problème — un retard d’adoption à combler par plus de pédagogie, plus de capacités, plus de démonstrations. Pour nous, ils composent un signal. La promesse « agentique » telle qu’elle est formulée aujourd’hui n’est pas celle que les utilisateurs achètent. Et ce qu’ils sont prêts à acheter ressemble assez peu à ce que la plupart des éditeurs s’apprêtent à leur livrer.
L’enquête menée par Converteo et l’IFOP en mars dernier sur un panel représentatif de 1 000 Français permet de rendre cette demande lisible. Trois enseignements en sortent, qui dessinent ensemble un produit assez différent de celui que l’on construit aujourd’hui.
À retenir :
- Maturité des usages : L’adoption globale se stabilise à un niveau record (64 %), mais l’utilisation régulière explose, transformant l’IA de simple curiosité en outil hebdomadaire, particulièrement chez les jeunes et les CSP+.
- Le plafond de verre de la décision : Si la moitié des Français accepte de déléguer un processus à une IA, seul 1 sur 10 est prêt à lui laisser prendre la décision finale. Le concept de Human in the loop est un impératif de conception.
- Cibler la friction : Les démarches administratives et le SAV sont les deux bastions où l’IA agentique est perçue comme la plus utile, car elle répond à un besoin d’élimination des tâches pénibles.
Agents IA autonomes : ce que les Français acceptent vraiment de déléguer
La narration dominante place l’autonomie au centre de la proposition. C’est elle qui justifierait l’achat, qui distinguerait l’agent du simple chatbot, qui ouvrirait les usages à valeur. La donnée dit le contraire.
Sur les Français disposés à confier une tâche à un agent (soit déjà un sur deux), 1 sur 10 seulement accepte qu’il aille jusqu’à la décision finale. Les neuf autres veulent un point de validation. Cette ligne ne disparaît pas avec l’expérience. Chez les utilisateurs intensifs, elle se déplace mais ne s’efface pas : plus on utilise, plus on délègue, mais le dernier mètre reste humain.
Ce que les utilisateurs achètent, ce n’est pas l’autonomie. C’est la décharge de tout ce qui précède la décision : la recherche, la qualification, la mise en forme des options, la formulation des arbitrages. L’agent crée de la valeur en remontant le travail amont, pas en s’arrogeant la décision finale. Une feuille de route produit qui s’obstine à franchir cette ligne (par couches successives de capacités d’exécution, par correctifs d’UX, par « défaut » stratégiquement placés) bute sur une préférence stable, pas sur une résistance pédagogique.
Le terme même d' »agent autonome » est probablement à reformuler. Ce qui s’installe dans les usages, ce n’est pas un pilote remplaçant. C’est un copilote permanent.
IA dans la relation client : la friction comme premier terrain de valeur
Demandez à un comité de direction où il veut déployer son agent IA en priorité. Vous entendrez parler du parcours d’achat, de la recommandation produit, de la conversion. Demandez aux Français où ils l’attendent. Ils répondent : démarches administratives et SAV. Cumulés, ces deux postes captent l’attente d’un Français sur deux. Le parcours d’acquisition arrive loin derrière.
Cette divergence n’est pas anecdotique. Elle révèle un biais de déploiement structurel : les directions marketing investissent l’agent là où elles mesurent un ROI court (l’acquisition) pendant que les utilisateurs l’attendent là où l’organisation a historiquement peu mesuré : l’aval, le service, le règlement des frictions. Les deux positions ne sont pas équivalentes. La première fait une bonne démonstration au COMEX. La seconde produit l’expérience qui transforme l’utilisateur ponctuel en utilisateur intensif – c’est-à-dire exactement le profil dont on a besoin pour que toute la suite tienne.
L’agent IA ne crée pas de la valeur en enchantant des parcours déjà fluides. Il en crée en supprimant la pénibilité résiduelle des parcours qui saignent. Inverser l’ordre des priorités de déploiement est probablement la première décision stratégique que les directions CX devraient prendre cette année.
Personnalisation par l’IA : repenser la séquence consentement-données
Le débat sur la personnalisation pose la donnée comme un préalable : obtenir le consentement, puis construire la valeur. L’enquête trace une séquence inverse.
La majorité des Français refuse de partager son historique d’achat avec une marque, même contre la promesse d’un parcours optimisé. Sur le tiers qui accepte, la moitié réserve cette ouverture à ses marques préférées. Chez les utilisateurs intensifs, le ratio s’inverse. Chez les 10 % qui délèguent jusqu’au bout, l’acceptation atteint 80 %. La donnée s’obtient à mesure que la valeur d’usage est démontrée. Pas l’inverse.
Cela disqualifie la plupart des stratégies CRM construites autour d’un consentement de tunnel. Elles capturent les profils déjà conquis et ne convertissent rien d’autre. Ce qui convertit, c’est la séquence opposée : produire d’abord une utilité visible avec un minimum de données, puis élargir le périmètre du consentement à mesure que l’utilisateur découvre ce que l’agent rend possible. C’est plus lent. C’est moins joli sur un dashboard d’opt-in. C’est ce qui produit les utilisateurs à 80 % d’acceptation que cette étude identifie.
L’architecture data d’un agent IA grand public ne devrait pas être pensée comme une porte d’entrée. Elle devrait être pensée comme un escalier – un palier minimum pour démarrer, des paliers progressifs adossés à des moments de valeur démontrée. Très peu de programmes sont conçus ainsi aujourd’hui.
Comment concevoir un agent IA adopté : 3 principes
Trois principes émergent pour bâtir un agent qui sera réellement adopté.
- Designer pour l’orchestration, pas pour la substitution. L’agent qui réussira n’est pas celui qui supprime le conseiller humain, c’est celui qui structure le passage de relais — qualification automatique, escalade fluide, contexte transmis sans rupture. Plus d’un Français sur deux préfère attendre un conseiller humain plutôt qu’obtenir une réponse immédiate d’une IA. Les déploiements qui prétendent contourner cette préférence se cognent dessus.
- Hiérarchiser les cas d’usage par pénibilité résolue plutôt que par visibilité produit. Le SAV et l’administratif sont moins photogéniques que la recommandation d’achat, mais ce sont eux qui fabriquent les utilisateurs intensifs dont dépend l’économie de tout l’édifice.
- Séquencer la donnée. Démontrer la valeur, puis demander le consentement. Élargir le consentement à chaque preuve de valeur. C’est l’inverse de ce qu’imposent la plupart des stacks CRM, mais c’est la seule trajectoire qui produit les ratios d’adoption observés chez les utilisateurs les plus engagés.