Skip to Content (custom)

Advice

コパイロット採用のナビゲート データ ガバナンスにおける法的留意点

  • Information governance

リーガルウィーク2025 セッション総括

ユーザーの私生活や仕事におけるAIへの関心が広まり、Copilot for Microsoft 365のようなツールの需要が大きく高まっている。しかし、どのようなAIツールの導入にも、いくつかの考慮事項が伴う。

組織全体でCopilot for Microsoft 365の導入を成功させるには、戦略、サポート、導入のバランスを取ることが重要です。これがLegalweek 2025のセッション「Navigating Copilot Adoption」の焦点である: データガバナンスに関する主な法的考慮事項」である。このブログでは、機密データのセキュリティとプライバシーを優先しつつ、Copilot for Microsoft 365のようなAIツールの需要を管理し、その利用をナビゲートするための議論と業界リーダーからのアドバイスを要約する。

Epiqのアドバイザリーおよびインプリメンテーション担当シニアディレクターであるPaul Renehanが、パネルのモデレーターを務めました。パネリストは以下の通り:

  • マイクロソフト、テクニカルスペシャリストマネジメント-データセキュリティ担当ディレクター、レイチェル・オシェイ氏

  • スティーブン・ベレント、ITイノベーション&アーキテクチャ・ディレクター、Steptoe LLP

  • ローレンス・ブリギ、IBM、企業訴訟サポート・マネージャー

  • トリシャ・サーカー(Katten Muchin Rosenman LLPパートナー兼プライバシー・オフィサー兼グローバル・プライバシー、データ、サイバーセキュリティ・プラクティス責任者)

Copilot導入の課題

パネリストは、Copilot for Microsoft 365の採用を成功させるには、意図的なフレームワーク、アクセス管理、機密データの漏洩を防ぐための暗号化システムが必要であるという点で、組織全体で意見が一致した。AIに対する法律業界の反応は、興奮から不安までさまざまです。特に社内チームの間では、恐れや誤解に対処するために明確なコミュニケーションが不可欠である。ローレンス・ブリギは、業界には判例がなく、こうしたツールの採用を成功させるためのフレームワークにアプローチする「正しい」方法についてコンセンサスが得られていないと指摘する。

AIの可能性に熱心なクライアントがいる一方で、ガバナンスのギャップを心配するクライアントもいる。思慮深いAIガバナンスのフレームワークを確立し、AIの責任ある使用方法を理解しながらビジネスニーズを満たすためのベストプラクティスについてエンドユーザーを訓練することは、責任あるAIを考慮する人の側面からこれらの懸念を軽減するもう一つの重要なステップである。

責任ある導入のためのベストプラクティス

本セッションでは、パネリストが、Copilot for Microsoft 365の導入を成功させるために企業が採用できるさまざまなプラクティスについて検討しました:

  1. 透明性のあるコミュニケーション: Rachel O'Shea氏とPaul Renehan氏は、社内チームと顧客の両方との明確なコミュニケーションを提唱した。組織は利害関係者の視点からリスクに対処し、信頼と安心感を醸成する必要がある。

  2. 段階的実施: Trisha Sircar氏によると、段階的な導入アプローチが重要である。ITチームから外部の弁護士に至るまで、多様な利害関係者を関与させることで、あらゆる角度から導入に取り組むことができる。トリシャはまた、AIが職場全体で使用される必然性を強調し、組織は尻込みするのではなく、AIを受け入れ、その統合を計画するよう促した。

  3. 実地体験: スティーブン・ベレントは、IT担当者にAIプラットフォームのフードの下に潜り込むことを勧めた。ツールを直接理解することで、ITチームは十分な情報を得た上で質問し、課題を効果的に解決することができる。

  4. 教育とライセンス: O'Shea氏は、マイクロソフトの契約、ライセンスの詳細、利用可能な保護について理解することの重要性を強調した。マイクロソフトのライセンス間の違いを理解することで、ユーザーはセキュリティと生産性を最大限に高めながら、変化する要件に対応することができる。組織は、Epiqのようなマイクロソフトのパートナーを活用し、利用可能なセキュリティ保護と効率的なライセンス管理に関する教育を受けるべきです。

リスクへの対応

リスク管理はパネルディスカッションの中心テーマであり、Copilotへのリクエストとツールへの機密情報の入力という2種類のデータ漏えいリスクが特定された。これらのリスクを軽減するために、組織は次のことを行うべきである:

  • セキュリティ対策(Data Loss Preventionなど)と機密ラベルを組み込んだモデルを導入する。

  • アクセス権を制限し、適切なアクセス許可が実施されるようにする。

  • データ入力を慎重に管理し、機密情報の漏洩を防ぐ。

先を見据えて 2025年のコパイロット

AIの導入が加速するなか、パネリストたちは2025年も大量導入の年になると予測した。Sircar氏は、AIは今後も存在し続けるものであり、私たちはAIを受け入れなければならないという楽観的な見解を示した。
適切な質問と考慮事項により、法務チームは責任ある実装と導入の成功を確保し、組織がCopilot for Microsoft 365を最大限に活用してより良い結果を得ることができます。

エピックのResponsible AIおよびCopilot for Microsoft 365の導入準備アセスメントとサービスの詳細については、お客様の組織をどのようにサポートできるかを含めてご覧ください。

すでにCopilotを導入しているが、法務チーム向けにCopilotを最大限に活用するための支援が必要なチームについては、エピックの法務部門AIトレーニングをご覧ください。

本記事の内容は、一般的な情報をお伝えすることのみを目的としており、法的なアドバイスや意見を提供するものではありません。

Subscribe to Future Blog Posts