

Advice

Considérations relatives à la défendabilité avec l'IA : scénarios optimistes et pessimistes
- eDiscovery
L'utilisation de l'IA dans le cadre de l'eDiscovery présente à la fois des opportunités et des défis, notamment en matière de défendabilité. Les praticiens du droit doivent être prêts à justifier leur utilisation des outils d'IA dans des conditions idéales comme dans des conditions défavorables. L'analyse des meilleurs et des pires scénarios fournit un cadre pour examiner la défendabilité de l'IA. Dans des circonstances favorables, l'IA n'est pas considérée comme différente des examinateurs humains, ce qui permet des flux de travail efficaces et confidentiels. Dans des situations plus litigieuses, la partie productrice peut être soumise à un examen minutieux et à des exigences de transparence. Il est essentiel d'examiner à quoi ressemble la coopération pratique entre les parties, en soulignant l'importance du caractère raisonnable, de la transparence et du respect des principes établis.
Ce que tous les workflows eDiscovery ont en commun
Les discussions préliminaires sont obligatoires dans le cadre d'un litige et sont essentielles pour garantir que les deux parties comprennent les paramètres de la divulgation et soulèvent leurs préoccupations dès le début.
Les discussions doivent porter sur les sources et les formats des informations stockées électroniquement (ESI), les méthodes de conservation et de collecte des données, ainsi que les protocoles de recherche et d'examen. Aborder ces sujets de manière proactive permet de garantir que la découverte est menée de manière raisonnable, proportionnée et défendable, tout en minimisant le risque de litiges ou de sanctions ultérieurs dans le cadre de l'affaire.
Un autre point commun est le risque d'erreurs dans le cadre d'un examen manuel ou assisté par la technologie (TAR). Les risques nécessitent des mesures de contrôle qualité et une documentation. La présence d'erreurs ne remet pas en cause la défendabilité d'un flux de travail ; ce qui importe, c'est de savoir si le processus global était raisonnable et proportionné.
Les taux de précision, de rappel et d'élusion s'appliquent à toutes ces méthodologies. La cohérence permet aux tribunaux et aux parties d'évaluer un processus d'examen sans parti pris envers la technologie utilisée. La clé réside dans la transparence et la capacité à démontrer une conception et une exécution réfléchies.
Meilleur scénario : l'examen facilité par l'IA est soumis aux mêmes normes que l'examen humain
Dans le meilleur des cas, l'examen par l'IA bénéficie du même niveau de confiance et de contrôle que l'examen humain traditionnel. Cette approche est conforme au principe 6 de Sedona, qui stipule que la partie productrice est la mieux placée pour déterminer les technologies et les méthodes appropriées pour sa production.
Il n'est pas nécessaire de divulguer les paramètres d'évaluation tels que la précision et le rappel, bien que leur calcul soit recommandé. Tout comme pour l'examen humain, l'absence de paramètres communs n'implique pas un manque de rigueur, mais seulement que la partie productrice n'est pas tenue de divulguer ses mesures internes de contrôle de la qualité, sauf en cas d'allégation de défaillance.
Cependant, l'utilisation de l'IA à des fins de recherche de documents et de désignation de ceux-ci en vue de leur conservation comporte des risques, qu'elle soit divulguée ou non à l'avocat adverse. L'IA peut s'avérer utile pour identifier les dépositaires et les bases de données soumis à une conservation légale, à condition qu'aucun filtrage au-delà des plages de dates ne soit appliqué. Si, pour une raison quelconque, il y a perte d'ESI qui aurait dû être soumise à une conservation légale, la partie productrice doit alors démontrer qu'elle a pris des mesures raisonnables pour éviter cette perte.
Pire scénario : l'utilisation de l'IA est examinée sous toutes les coutures
Dans le pire des cas, la partie adverse conteste la pertinence de la production et exige une transparence totale du processus d'examen par l'IA. Cela inclut des demandes de divulgation des invites utilisées pour guider l'IA, au motif que ces invites influencent la portée et la nature de l'examen. Bien que ce niveau de contrôle soit rare, il peut survenir dans le cadre de litiges à enjeux élevés ou lorsqu'il existe des antécédents de litiges en matière de divulgation.
La partie productrice peut également être confrontée à des demandes de divulgation de chaque étape du flux de travail, y compris le prétraitement, le filtrage et la validation post-examen. La charge que représente une telle divulgation peut avoir une incidence sur les délais et exposer à un risque de divulgation d'informations privilégiées.
Une autre exigence concerne l'accès au « processus de raisonnement ou de prise de décision de l'IA ». Bien que cela puisse s'avérer irréalisable compte tenu de la nature opaque des grands modèles linguistiques (LLM), de nombreux outils enregistrent la chaîne de pensée « raisonnement » produite par le LLM sous-jacent utilisé. En fin de compte, les tribunaux peuvent mettre en balance le besoin de transparence de la partie requérante et le droit de la partie productrice à préserver la confidentialité de ses outils et méthodes.
L'avocat adverse pourrait également faire valoir que l'IA peut présenter des biais qui faussent les résultats de l'examen. Dans ce cas, la partie productrice pourrait devoir démontrer que des mesures ont été prises pour évaluer et atténuer ces biais, même si de telles évaluations ne sont généralement pas requises dans le cadre d'un examen humain.
Bien que ces exigences puissent être lourdes, elles soulignent l'importance de conserver une documentation complète et d'être prêt à défendre le processus en cas de contestation.
À chaque étape de la découverte, il est essentiel de conserver des pistes d'audit qui documentent chaque action entreprise. Si des questions se posent quant à l'intégrité du processus, une piste d'audit bien tenue fournit la preuve que les procédures appropriées ont été suivies.
Évaluation à l'aide de mesures établies
L'évaluation du processus d'examen dans le cadre de l'eDiscovery nécessite l'application de mesures établies afin de garantir son efficacité et sa validité. Les trois mesures les plus importantes sont les estimations impartiales du rappel, de la précision et de l'élusion pour la population examinée. Ces trois mesures doivent être utilisées pour évaluer tout processus d'examen, qu'il soit assisté par la technologie ou non.
En pratique : à quoi ressemble la coopération ?
La coopération entre les parties est essentielle pour éviter les litiges et les retards. Pour la partie productrice, cela signifie faire preuve de transparence quant à l'utilisation de la technologie LLM. Le partage d'informations de haut niveau sur la technologie utilisée et les mesures d'évaluation obtenues peut contribuer à instaurer la confiance et à éviter les conflits.
Dans le même temps, la partie requérante doit agir de manière raisonnable. Tout comme il serait inapproprié d'exiger le protocole d'examen ou l'ensemble de données de référence de la partie adverse dans un flux de travail TAR traditionnel, il est tout aussi déraisonnable d'exiger des détails exhaustifs sur un processus d'examen de la technologie LLM sans motif particulier. La coopération est essentielle pour reconnaître l'équilibre entre transparence et confidentialité stratégique.
À mesure que la communauté juridique s'adapte à l'IA, un engagement commun en faveur de l'équité, de l'efficacité et de la défendabilité sera essentiel pour façonner l'avenir de l'eDiscovery. En fin de compte, la défendabilité dans l'eDiscovery, qu'elle utilise ou non l'IA, repose sur les principes de raisonnabilité, de proportionnalité et de bonne foi.
La version originale et complète de ce blog se trouve sur le site web de l'ACEDS et peut être consultée ici.
Lilith Bat-Leah possède une vaste expérience dans la gestion, la prestation et le conseil en matière d'eDiscovery, notamment l'identification, la conservation, la collecte, le traitement, l'examen, l'analyse et la production de données numériques. Elle possède également une expérience dans la recherche et le développement de logiciels d'eDiscovery. Lilith participe régulièrement à des négociations autour de l'eDiscovery et a fourni des témoignages d'expert dans des procédures judiciaires nationales et internationales. Elle est spécialisée dans l'application des statistiques, de l'analyse, de l'apprentissage automatique et de la science des données dans le contexte de l'eDiscovery. Lilith écrit et intervient sur divers sujets, notamment les protocoles ESI, l'échantillonnage statistique et l'examen assisté par la technologie. Elle copréside le groupe de travail DMLR avec MLCommons, est conseillère auprès de la Common Crawl Foundation, siège au conseil d'administration de la section new-yorkaise de l'ACEDS et est membre des groupes de travail 1 et 13 de la Sedona Conference. Lilith a également été membre fondatrice du conseil d'administration de la section de Chicago de l'ACEDS et a siégé au conseil consultatif mondial de l'EDRM. Elle est diplômée avec mention très bien de l'université Northwestern.

Ronald J. Hedges, directeur, Ronald J. Hedges LLC
Ron a occupé le poste de juge fédéral dans le district du New Jersey pendant plus de 20 ans. Il intervient et écrit sur divers sujets, dont beaucoup sont liés à l'information électronique, notamment le droit pénal procédural et substantiel, la gouvernance de l'information, la gestion des litiges et l'intégration de nouvelles technologies telles que l'intelligence artificielle (IA) dans les politiques et procédures existantes en matière de gouvernance de l'information. Il a été membre des groupes de travail sur l'IA des associations du barreau des États du New Jersey et de New York et est aujourd'hui membre des comités permanents sur l'IA de ces deux associations. Ron est également membre du Founders Circle du Georgetown Law Advanced eDiscovery Institute.
Cet article est destiné à fournir des informations générales et non des conseils ou des avis juridiques.