Aujourd’hui l’IA s’invite dans tous les métiers, et celui de la médiation n’y échappe pas. Perçue comme une pratique éminemment humaine, centrée sur l’écoute, la relation et la confiance, la médiation semblait à l’abri de la vague numérique. Mais l’arrivée de ces outils génératifs fait évoluer le paysage.
Pour certains négociateurs, l’IA est déjà devenue un acteur incontournable, en particulier dans des conflits simples et transactionnels, où des plateformes automatisées peuvent générer un accord sans intervention humaine. Mais d’autres praticiens se questionnent voire s’inquiètent du rôle que pourrait prendre l’IA en médiation, notamment lorsque les conflits sont complexes. C’est le cas dans le secteur de l’immobilier et de la construction où les litiges peuvent concerner retards de chantier, malfaçons, surcoûts, désaccords contractuels, etc.
Cet article propose un panorama global, intégrant les analyses de plusieurs spécialistes de la médiation et de l’IA, pour réfléchir de manière pragmatique au rôle possible de l’IA dans la médiation : les bénéfices, les risques, les limites et les précautions liés à son utilisation.
L’IA générative, qu’est-ce que c’est ?
L’IA générative (GenAI) est une branche de l’intelligence artificielle qui se concentre sur la création de modèles et d’algorithmes capables de générer des données, des images, des textes ou des sons de manière autonome.
Elle utilise des LLM (Large Language Model) qui sont des réseaux de neurones artificiels et des techniques d’apprentissage profond pour apprendre à partir de données existantes et générer de nouvelles données sur cette base. Pour cela, l’IA va prédire la réponse la plus probable en assemblant mot à mot des phrases complètes.
En 2025, l’IA multimodale – entraînée grâce à des sources multiples (texte, audio, image, vidéo) – est une des grandes tendances, aux côtés notamment des agents autonomes, systèmes capables d’effectuer des tâches complexes de manière indépendante.
Des bénéfices réels mais relatifs
a) Clarté et structuration
Au moyen de reformulations et de résumés, l’IA peut aider à clarifier les idées, les organiser, les classer.
b) Gain de temps et d’efficacité
L’IA peut accélérer le traitement documentaire et la préparation des séances. En automatisant certaines tâches chronophages, le processus est optimisé, libérant du temps pour le cœur de la médiation : la relation humaine.
c) Stimulation créative
L’IA peut proposer plusieurs formulations, utiles pour reformuler sans trahir la pensée originale. En générant des pistes de solution inattendues et en ouvrant de nouvelles perspectives pour débloquer des situations complexes, l’IA peut aussi enrichir l’imagination du médiateur s’il est confronté à une impasse.
Mais ces bénéfices restent relatifs : ils touchent surtout l’efficacité opérationnelle. L’essence de la médiation – créer un climat de confiance, écouter en profondeur, favoriser une rencontre authentique – demeure irréductiblement humaine.
Les apports concrets de l’IA en médiation
Concrètement, cela se traduit par plusieurs usages pratiques :
a) Préparer une médiation plus efficacement
En amont de la médiation, l’IA peut :
- Synthétiser des entretiens et des centaines de pages ;
- Repérer les zones de tension récurrentes (délais, coûts, qualité des travaux) ;
- Préparer la médiation (gestion de l’agenda, mails, tâches administratives) ;
- Simuler des scénarios de médiation (par exemple, concessions croisées possibles), en anticipant les objections et en préparant des questions.
Cela peut permettre au médiateur d’aborder les entretiens en étant mieux préparé et avec une vision d’ensemble plus claire.
b) Soutenir l’analyse pendant le processus
Durant la médiation, l’IA peut servir à :
- Reformuler les positions exprimées ;
- Identifier les besoins et intérêts ;
- Etablir les points de convergence et de divergence ;
- Formaliser des outils de négociation comme la MESORE (MEilleure SOlution de REpli) et la ZOPA (zone of possible agreement) ;
- Explorer des pistes de solutions.
Certains outils peuvent aussi analyser des profils comportementaux et repérer dans le langage des indices de tension ou d’apaisement. Ce type de signal peut attirer l’attention du médiateur sur un moment sensible, à condition d’être interprété avec prudence.
c) Faciliter la rédaction et le suivi
En fin de médiation, l’IA peut aider à générer une synthèse des points d’accord, qui serait ensuite à affiner par les parties. Elle peut aussi automatiser des tâches administratives (tri, facturation, archivage).
Ces apports potentiels ne doivent pas occulter des zones de vigilance importantes afin de ne pas fragiliser, voire dénaturer le processus de la médiation.
Les limites et les risques
a) Confidentialité et sécurité
C’est peut-être le point le plus sensible pour les médiateurs. La plupart des IA ouvertes (ChatGPT, Gemini, etc.) stockent et utilisent les données pour améliorer leurs modèles. En médiation, confier à ces systèmes des informations issues d’un litige expose à de sérieux risques.
Deux stratégies permettent de réduire ce risque : utiliser des IA locales, non connectées à internet, ou bien anonymiser totalement les dossiers avant traitement.
b) Fiabilité relative et perte d’esprit critique
Le fonctionnement probabiliste des IA génératives produit parfois des « hallucinations », c’est à dire des erreurs, des formulations biaisées voire de pures inventions. Ainsi, si leurs données d’entraînement ne sont pas suffisamment diversifiées et auditées, alors des biais algorithmiques peuvent reproduire des réponses stéréotypées ou amplifier des discriminations. De plus, les modèles actuels sont incités à produire une réponse même lorsqu’ils n’ont pas tous les éléments pour répondre de manière satisfaisante. Il arrive ainsi que leur réponse soit non appropriée au contexte, ou spéculative voire fausse.
En médiation, où la neutralité et l’impartialité sont des principes fondamentaux, une approximation dans une analyse comportementale ou dans une reformulation pose problème. Cela pourrait entraîner de la méfiance envers le médiateur et fragiliser le processus.
Par ailleurs, une utilisation inadéquate de l’IA peut conduire à une perte d’esprit critique envers les réponses proposées, alors qu’elles sont de facto standardisées, et parfois erronées ou inappropriées.
L’IA n’est qu’un outil de soutien technique qui doit être contrôlé.
c) Risque de déshumanisation
Une utilisation excessive de l’IA pourrait affaiblir la relation humaine et la confiance qui sont au cœur de la médiation.
D’autant plus que tout le monde ne voit pas l’IA d’un œil positif. Dans la construction qui est un secteur concret et pragmatique, certains peuvent la percevoir comme une intrusion technologique dont il faudrait se méfier.
Le médiateur doit donc expliquer son usage et obtenir l’accord préalable des parties.
d) Émotions : promesses et illusions
Plusieurs études récentes ont montré que l’IA pouvait reconnaître et décrire des émotions exprimées dans un texte ou par une voix avec une précision supérieure à celle d’un groupe témoin humain. Ses capacités à identifier des indices émotionnels et à les restituer d’une manière intelligible sont réelles. Mais ensuite l’IA montre des lacunes dans l’interprétation des réactions et l’exploration de perspectives en découlant.
Oui, elle peut reconnaître des signaux (colère, tristesse, anxiété). Oui, elle peut proposer des réponses qui semblent empathiques. Mais il s’agit d’une simulation, pas d’une expérience vécue ni d’une compréhension réelle. Le risque ici est d’accorder trop de crédit à un outil qui, en réalité, ne ressent rien.
L’IA peut donc alerter, mais c’est au médiateur de vérifier, interpréter et valider. Il doit garder en tête que seule sa propre écoute authentique peut créer une véritable résonance émotionnelle.
Réglementation, responsabilité et formation
Le règlement européen sur l’IA (RIA ou AI Act) du 13 juin 2024 et le règlement général de protection des données (RGPD) du 27 avril 2016 encadrent désormais l’usage de l’IA en Europe. Ils prévoient des obligations renforcées en matière de traçabilité, d’anonymisation et de sécurisation des données.
Les médiateurs devront assumer les responsabilités liées à l’utilisation de l’IA dans leur pratique et donc s’assurer que leurs outils respectent ces règles, notamment en matière de confidentialité. Face à ces évolutions, se former pour comprendre et maîtriser ces outils et leurs limites devient donc nécessaire.
Conclusion : en médiation, l’IA peut être un levier qu’il faut maîtriser
L’intelligence artificielle peut offrir au médiateur des outils puissants : tri et synthèse de documents, repérage de blocages, assistance à la rédaction, simulation de scénarios. Elle peut être utile pour préparer, analyser, ou rédiger. L’IA peut ainsi libérer du temps au médiateur pour lui permettre de privilégier la relation humaine, mais elle ne peut pas le remplacer. Car l’IA ne peut pas écouter, ressentir, incarner l’impartialité et la neutralité, ni générer de la confiance. Elle présente en outre plusieurs risques : confidentialité fragile, fiabilité incertaine, acceptabilité variable.
L’IA n’a donc pas vocation à transformer la nature de la médiation. Au contraire, elle nous rappelle l’importance des interactions humaines dans le domaine du règlement des litiges. En effet, derrière chaque conflit, au-delà des aspects techniques, juridiques ou financiers, il y a des personnes, avec toute la complexité et la richesse que cela implique. Seul un être humain, spécialiste des relations humaines, est en mesure d’en appréhender tous les aspects.
Aussi, pour préserver la dimension humaine et la confiance qui sont les valeurs centrales de la médiation, l’usage de l’IA doit être supervisé et rester mesuré. Parler de « médiation assistée par IA » serait une erreur, laissant penser que les algorithmes interviennent au même niveau que les acteurs de la médiation. Il faut clarifier : l’IA n’assiste pas la médiation, elle est simplement un outil au service du médiateur. Cette nuance est essentielle.
Les médiateurs de demain ne seront pas remplacés par l’IA, mais ils devront probablement apprendre à travailler avec ce nouvel outil, en s’y formant et le cas échéant en l’intégrant dans leur pratique, avec prudence, éthique et esprit critique. Combiner au mieux la collecte et l’analyse des données par l’IA avec l’intuition et l’expérience du médiateur permettra peut-être de cheminer vers une résolution optimale des conflits.
Et vous, comment envisagez-vous l’intégration de l’IA dans votre pratique professionnelle ? Quels outils ou usages vous semblent prometteurs ? Et quelles limites vous inquiètent ?
Sources d’inspiration :
- « Empathie de l’IA dans la médiation », par Michael Lardy
- « IA et ChatGPT pour les Médiateurs », par Yonas Berrebeh 🇨🇭
- « Médiation et IA : la révolution silencieuse », par Michael Lardy
- « I.A. et médiation, Le grand malentendu », par JEAN MARC BRET
- « Introduction à l’Intelligence Artificielle pour médiatrices / médiateurs. Potentiel de l’IA dans la pratique de médiation », par la FSM
- « L’IA et la négociation », par Halifax Consulting
- « Intelligence artificielle et médiation : alliée ou concurrente ? », par Pascal Gemperli
- Webinaire IEAM « Algorithmes et Médiation » avec Pierre Berlioz