chatbot

Des outils d’IA générative mettaient les données d’un détaillant en péril — voici comment Proofpoint l’a aidé

Share with your network!

Cet article de blog fait partie d’une série de trois articles qui explique pourquoi les entreprises choisissent les solutions Proofpoint de sécurité des données. Il se concentre sur les défis uniques auxquels sont confrontés différents secteurs en ce qui concerne la protection des données.

Dans le cadre de l’adoption d’outils d’IA générative, les entreprises peuvent être exposées à des risques importants de fuite de données. Bien que de nombreuses entreprises souhaitent adopter des outils tels que ChatGPT, Microsoft Copilot et Google Gemini, les équipes de sécurité ne sont pas toujours prêtes à affronter les risques associés. Après tout, il est facile pour les utilisateurs d’exposer par inadvertance des données sensibles et des éléments de propriété intellectuelle à des copilotes d’IA. De nombreuses entreprises ne disposent d’aucun processus de gouvernance ni d’aucun contrôle de données robuste pour les en empêcher.

Dans cet article, nous allons voir comment un grand détaillant américain a adopté des outils d’IA générative en toute sécurité en utilisant les solutions Proofpoint de sécurité des données et ZenGuide pour appliquer ses règles d’utilisation acceptable de l’IA et protéger ses données.

L’absence de gouvernance de l’IA met le code source en péril

L’e-commerce représente une part importante des activités de ce détaillant. Il utilise donc du code développé en interne pour soutenir ses opérations. Récemment, le responsable de la protection et de la gouvernance des données de l’entreprise a découvert avec consternation que les développeurs de logiciels utilisaient des outils d’IA générative d’une manière qui exposait du code source sensible et des mots de passe. Il a également constaté que les équipes de l’entreprise utilisaient des outils comme Grammarly et ChatGPT pour créer des contenus.

Pour réduire le risque de fuite de données, il a commencé à bloquer l’accès à ces outils via la passerelle Web sécurisée (SWG) de l’entreprise. Toutefois, après discussion, l’équipe de sécurité et les parties prenantes de l’entreprise ont décidé qu’une approche plus complète était nécessaire. C’est ainsi que le projet de gouvernance de l’IA de l’entreprise est né.

Apprendre aux collaborateurs à utiliser l’IA générative en toute sécurité

L’entreprise souhaitait prĂ©venir l’exposition de ses donnĂ©es via des outils d’IA gĂ©nĂ©rative, ainsi que conserver son agilitĂ© mĂ©tier. Pour atteindre ces deux objectifs, l’équipe de sĂ©curitĂ© a mis en Ĺ“uvre les mesures suivantes en s’appuyant sur les solutions Proofpoint de sĂ©curitĂ© des donnĂ©es, ZenGuide et une passerelle SWG tierce :

  • Blocage de l’accès aux outils d’IA gĂ©nĂ©rative non approuvĂ©s. L’équipe a créé des règles SWG afin de bloquer l’accès gĂ©nĂ©ral Ă  une liste de plus de 600 sites d’IA gĂ©nĂ©rative sĂ©lectionnĂ©s par Proofpoint, dont ChatGPT, Microsoft Copilot, DeepSeek, Google Gemini et Claude. Des exceptions individuelles ont Ă©tĂ© dĂ©finies après que l’équipe a discutĂ© avec le responsable de chaque service.
  • Formation des utilisateurs Ă  la sĂ©curitĂ© de l’IA gĂ©nĂ©rative. Un programme de formation et de sensibilisation Ă  la sĂ©curitĂ© informatique a Ă©tĂ© lancĂ© en collaboration avec les Ă©quipes juridiques et RH pour apprendre aux collaborateurs Ă  utiliser l’IA gĂ©nĂ©rative en toute sĂ©curitĂ©. Seuls les utilisateurs ayant suivi la formation Proofpoint ZenGuide se sont vus octroyer un accès aux outils d’IA gĂ©nĂ©rative.
  • Surveillance des invites d’IA. L’équipe a utilisĂ© Proofpoint Endpoint DLP et l’extension de navigateur pour surveiller les activitĂ©s des utilisateurs et les mouvements de donnĂ©es sur certains sites d’IA gĂ©nĂ©rative sĂ©lectionnĂ©s par Proofpoint. Si des dĂ©veloppeurs ne suivaient pas la formation ou utilisaient les outils de manière inappropriĂ©e et exposaient du code propriĂ©taire ou des mots de passe, des alertes Ă©taient gĂ©nĂ©rĂ©es et les responsables de services Ă©taient informĂ©s.
  • Identification des personnes qui utilisent des outils d’IA gĂ©nĂ©rative. L’équipe s’est appuyĂ©e sur Proofpoint People Risk Explorer pour comprendre comment les collaborateurs, les services et d’autres groupes utilisaient les outils d’IA gĂ©nĂ©rative. Ce tableau de bord a permis au responsable de la protection des donnĂ©es de signaler facilement les risques aux responsables de services, par exemple lorsque des collaborateurs saisissent d’importants volumes de donnĂ©es dans des outils d’IA ou utilisent ces outils sans formation adĂ©quate.
  • Identification des applications d’IA non approuvĂ©es. L’équipe a utilisĂ© Proofpoint CASB afin de surveiller et de contrĂ´ler les autorisations OAuth pour les applications d’IA non autorisĂ©es ou Ă  risque telles que Grammarly.

Trouver le juste équilibre entre innovation et sécurité

Proofpoint a mis ses technologies et son expertise à disposition de ce détaillant, qui a ainsi pu tirer parti des avantages des outils d’IA générative tout en réduisant les risques pour la sécurité de ses données. En combinant visibilité, formation et contrôles ciblés, Proofpoint s’est assuré que les outils d’IA générative étaient adoptés de manière sûre et efficace.

En savoir plus

Pour dĂ©couvrir comment d’autres entreprises utilisent Proofpoint pour protĂ©ger leurs donnĂ©es sensibles contre leurs utilisateurs Ă  risque, lisez les autres articles de cette sĂ©rie :

Vous souhaitez empĂŞcher vos collaborateurs de mettre vos donnĂ©es en pĂ©ril avec des outils d’IA gĂ©nĂ©rative ? DĂ©couvrez comment les technologies de sĂ©curitĂ© des donnĂ©es de Proofpoint peuvent vous aider Ă  garantir une utilisation acceptable de l’IA gĂ©nĂ©rative.