
Advice

Navegando na adoção de copilotos: Principais considerações legais para a governança de dados
- Information governance
- 3 Mins
Recapitulação da sessão da Legalweek 2025
O interesse generalizado em IA para a vida pessoal e profissional dos usuários gerou uma demanda significativa por ferramentas como o Copilot para Microsoft 365. No entanto, a implementação de qualquer ferramenta de IA vem acompanhada de várias considerações.
Equilibrar a estratégia, o suporte e a implementação é fundamental para garantir a adoção bem-sucedida do Copilot para Microsoft 365 em sua organização. Esse foi o foco da sessão da Legalweek 2025, “Navigating Copilot Adoption: Key Legal Considerations for Data Governance”. Este blog resume a discussão e os conselhos dos líderes do setor sobre como gerenciar a demanda e navegar pelo uso de ferramentas de IA como o Copilot para Microsoft 365, priorizando a segurança e a privacidade de dados confidenciais.
Paul Renehan, Diretor Sênior de Consultoria e Implementação, Prática de Governança da Informação, Epiq, moderou o painel. Os participantes do painel incluíram:
-
Rachel O'Shea, Diretora, Gerenciamento de Especialistas Técnicos - Segurança de Dados, Microsoft
-
Steven Berrent, Diretor de Inovação e Arquitetura de TI, Steptoe LLP
-
Lawrence Briggi, Gerente de Suporte a Litígios Corporativos, IBM
-
Trisha Sircar, Sócia e Diretora de Privacidade e Chefe da Prática Global de Privacidade, Dados e Segurança Cibernética, Katten Muchin Rosenman LLP
Desafios da adoção do Copilot
Em todas as organizações, os participantes do painel concordaram que a adoção bem-sucedida do Copilot para Microsoft 365 requer estruturas intencionais, gerenciamento de acesso e sistemas de criptografia para evitar o vazamento de dados confidenciais. No setor jurídico, há uma série de reações em relação à IA - do entusiasmo à apreensão. Uma comunicação clara é essencial para lidar com medos e equívocos, especialmente entre as equipes internas. Lawrence Briggi observou que o setor carece de jurisprudência e consenso sobre a maneira “correta” de abordar uma estrutura para a adoção bem-sucedida dessas ferramentas.
Embora alguns clientes estejam entusiasmados com o potencial da IA, outros se preocupam com as lacunas de governança, especialmente quando as preocupações mais proeminentes envolvem a segurança dos dados e os impactos da retenção. O estabelecimento de uma estrutura de governança de IA bem pensada e o treinamento dos usuários finais sobre as práticas recomendadas para atender às necessidades dos negócios e, ao mesmo tempo, entender uma maneira responsável de usar a IA, são outras etapas essenciais para atenuar essas preocupações com o aspecto pessoal das considerações responsáveis sobre IA.
Práticas recomendadas para uma implementação responsável
Durante a sessão, os palestrantes exploraram as várias práticas que as empresas podem adotar para apoiar a adoção bem-sucedida do Copilot para Microsoft 365:
-
Comunicação transparente: Rachel O'Shea e Paul Renehan defenderam a comunicação clara com as equipes internas e os clientes. As organizações devem abordar os riscos do ponto de vista das partes interessadas, promovendo a confiança e o conforto.
-
Implementação em fases: De acordo com Trisha Sircar, uma abordagem de implementação em fases é fundamental. O envolvimento de diversas partes interessadas, desde as equipes de TI até o conselho externo, garante que todos os ângulos de adoção sejam abordados. Trisha também enfatizou a inevitabilidade de a IA ser usada em todo o local de trabalho, pedindo às organizações que a adotem e planejem sua integração, em vez de se esquivarem.
-
Experiência prática: Steven Berrent incentivou os profissionais de TI a conhecerem a fundo as plataformas de IA. Compreender as ferramentas em primeira mão prepara as equipes de TI para fazer perguntas informadas e enfrentar os desafios de forma eficaz.
-
Educação e licenciamento: O'Shea enfatizou a importância de entender os contratos da Microsoft, as especificidades das licenças e as proteções disponíveis. Compreender as diferenças entre as licenças da Microsoft permite que os usuários se adaptem às mudanças de requisitos e, ao mesmo tempo, maximizem a segurança e a produtividade. As organizações devem aproveitar os parceiros da Microsoft, como a Epiq, para se instruir sobre as proteções de segurança disponíveis e o gerenciamento eficiente de licenças.
Como lidar com os riscos
O gerenciamento de riscos foi um tema central do painel de discussão, e foram identificados dois tipos de riscos de vazamento de dados: solicitações feitas ao Copilot e informações confidenciais inseridas na ferramenta. Para mitigar esses riscos, as organizações devem:
-
Implementar modelos com medidas de segurança incorporadas (por exemplo, prevenção contra perda de dados) e rótulos de sensibilidade.
-
Restringir os direitos de acesso e garantir que as permissões adequadas sejam aplicadas.
-
Controlar cuidadosamente as entradas de dados para evitar a exposição de informações confidenciais.
Olhando para o futuro: Copiloto em 2025
Com a aceleração da adoção da IA, os participantes do painel previram que 2025 continuará sendo um ano de implementação em massa. Sircar compartilhou seu otimismo de que a IA veio para ficar, e temos que abraçá-la.
Com as perguntas e considerações certas, as equipes jurídicas podem garantir a implementação responsável e a adoção bem-sucedida, ajudando a organização a aproveitar ao máximo o Copilot para Microsoft 365 e a obter melhores resultados.
Saiba mais sobre os serviços e a avaliação de prontidão para adoção do Responsible AI e do Copilot para Microsoft 365 da Epiq, incluindo como eles podem ajudar sua organização.
Para equipes que já implementaram o Copilot, mas precisam de ajuda para tirar o máximo proveito dele para suas equipes jurídicas, consulte a oferta de treinamento em IA para o departamento jurídico da Epiq.
O conteúdo deste artigo é destinado apenas a fornecer informações gerais e não a oferecer aconselhamento ou opiniões jurídicas.