Skip to Content (custom)

Abstract illustration of blue spheres aligned in rows, with one gold sphere moving ahead to represent strategic leadership and adaptability.

Leadership juridique stratégique à l’ère de l’IA agentique 

  • 1 minute

Récapitulatif de la session Legalweek 2026

Point clé: L’IA agentique transforme le fonctionnement des directions juridiques en passant du stade de l’expérimentation à un impact opérationnel concret. Lors de la session Legalweek 2026 intitulée « Leadership juridique stratégique à l’ère de l’IA agentique », des experts du secteur ont expliqué pourquoi les responsables juridiques doivent se concentrer sur des cas d’usage à forte valeur ajoutée, piloter l’adoption à l’échelle de l’entreprise et mettre en place une gouvernance claire. Les intervenants ont souligné que ces leviers sont essentiels pour trouver le bon équilibre entre innovation, responsabilité et maîtrise des risques, à mesure que les agents d’IA s’intègrent aux workflows juridiques.

Grâce à leur capacité à automatiser des tâches complexes, à raisonner et à s’adapter à l’évolution des exigences juridiques, les agents d’IA représentent l’avenir des opérations juridiques performantes. Les directions juridiques qui souhaitent intégrer l’IA agentique doivent identifier des cas d’usage à fort impact, accompagner le changement organisationnel et définir des garde‑fous adaptés.

Ces enjeux étaient au cœur de l’atelier Legalweek 2026 sur les opérations juridiques présenté par Epiq, intitulé « Leadership juridique stratégique à l’ère de l’IA agentique ». Jon Kessler, vice‑président et Vice President and General Manager, Information Governance chez Epiq, animait une table ronde réunissant quatre responsables juridiques internes qui pilotent l’adoption de l’IA agentique au sein de leurs organisations.

  • Jessica Escalera, Head of Legal Operations — Americas, HSBC
  • Nicole Langston, Head of eDiscovery, Counsel, Barclays
  • Lydia Petrakis, Assistant General Counsel, Microsoft
  • John Zhu, Sr. Director, Legal and Compliance Tech, GSK

Stimuler l’usage et l’adoption

Dès l’ouverture, les intervenants ont rappelé la différence fondamentale entre l’IA générative et l’IA agentique. Nicole a expliqué que cette dernière est capable de percevoir le contexte, de planifier des étapes, d’interagir avec plusieurs systèmes, de prendre des décisions sur la manière de procéder et de progresser vers un objectif précis. À partir de ce constat, le panel a mis en avant trois enseignements clés concernant l’adoption de l’IA agentique.

L’adoption de l’IA dépasse le cadre du juridique

Premier enseignement, l’adoption de l’IA ne se limite pas aux équipes juridiques. D’autres fonctions de l’entreprise utilisent déjà l’IA et, chaque jour, de nouveaux cas d’usage émergent. Les directions juridiques doivent donc dépasser leurs seuls workflows juridiques et collaborer avec les autres métiers afin de maximiser l’impact business de l’IA. Cela représente une évolution profonde, tant dans le rôle du juridique que dans ses processus. Plutôt que de chercher à imposer des règles d’usage, les équipes juridiques doivent adopter une approche partenariale, agile et flexible, conciliant les risques juridiques et les bénéfices stratégiques pour l’entreprise.

Le leadership comme moteur de l’adoption

Deuxième enseignement, le leadership est déterminant. Comme l’a résumé Lydia, « si vous n’utilisez pas l’IA, vous prenez du retard ». L’adoption de l’IA n’est pas un projet ponctuel. Elle implique d’accompagner l’ensemble de l’organisation tout au long de la courbe d’apprentissage et de mise en œuvre. La direction doit jouer un rôle de catalyseur, mobiliser les bonnes parties prenantes et favoriser une approche véritablement transverse.

Les intervenants ont également recommandé de s’appuyer sur les collaborateurs déjà utilisateurs de l’IA, en les invitant à animer des formations internes, à partager des cas d’usage concrets et à agir comme relais entre pairs afin d’aider les équipes à intégrer l’IA dans leurs activités quotidiennes.

L’état d’esprit compte autant que la technologie

Troisième enseignement, un changement de mentalité est indispensable. Cela passe par la compréhension du fonctionnement de l’IA agentique, de ce qu’elle peut et ne peut pas faire, de l’importance des cartographies de processus, ainsi que de ses limites et risques potentiels. Il faut également accepter que l’itération est essentielle. Identifier les meilleurs cas d’usage et déterminer ceux qui peuvent être industrialisés repose sur une logique d’essais et d’ajustements que les dirigeants doivent encourager, dans un cadre sécurisé et maîtrisé.

Cas d’usage et points de vigilance

Le panel a mis en lumière les considérations pratiques et juridiques liées à l’identification et au déploiement des cas d’usage de l’IA agentique. Tous ne se valent pas. L’approche la plus efficace consiste à démarrer avec un cas d’usage générant un impact clair et significatif pour une équipe donnée, afin d’en faire un point de référence. Il s’agit souvent de simplifier un processus existant ou d’accéder à des informations impossibles à exploiter sans le recours à l’IA.

Gouvernance, responsabilité et supervision humaine

La gouvernance est un élément clé. Jon a proposé une approche dite « briques de Lego », dans laquelle des garde‑fous sont intégrés à chaque étape et à chaque composant d’un workflow. La gouvernance de l’information ne se limite pas à l’accès aux données par un agent. Elle définit également les droits de partage, la nature des données concernées et leurs destinataires autorisés. La délégation de tâches aux agents d’IA introduit de nouveaux risques. Quelle autonomie leur accorder et à quel moment l’intervention humaine devient‑elle indispensable ? Jessica a mis en garde contre le risque de complaisance vis‑à‑vis de l’IA et a rappelé l’importance de garantir qu’un humain demeure in fine responsable.

John a insisté sur un point essentiel. Dans tous les cas, il doit être parfaitement clair ce que fait un processus agentique donné, qui en est propriétaire et qui assume la responsabilité des résultats produits. La responsabilisation suppose également des mécanismes de validation et des points de contrôle humains, en particulier lorsque des agents interagissent entre eux. Les parties prenantes doivent comprendre l’origine des résultats fournis et posséder un niveau de compréhension suffisant de l’IA pour savoir quand et comment remettre ces résultats en question.

L’IA agentique est de plus en plus en mesure de remplacer des applications logicielles traditionnelles et d’offrir aux organisations une meilleure maîtrise des coûts, une prise de décision plus éclairée, une compétitivité renforcée et des workflows juridiques plus fluides. Les dirigeants juridiques et leurs équipes joueront un rôle déterminant pour garantir une utilisation appropriée, responsable et sécurisée de ces technologies.


Cet article est destiné à fournir des informations générales et non des conseils ou des avis juridiques.

Subscribe to Future Blog Posts