Zscaler sécurise les outils d’IA générative
mai 2023 par Marc Jacob
La question de la sécurité des outils d’IA générative est devenue cruciale pour de nombreux dirigeants issus de divers secteurs, dont notamment la finance, l’industrie et les services informatiques. Face à ce constat, Zscaler, Inc. propose une technologie permettant d’assurer la sécurité des outils d’IA générative tels que ChatGPT.
Souhaitant répondre aux préoccupations des responsables sécurité quant à la protection des données sensibles lors de l’utilisation de ChatGPT, Zscaler applique des politiques DLP en ligne afin de bloquer les utilisateurs qui tenteraient de télécharger des numéros de cartes de crédit sur ChatGPT. Cette fonctionnalité s’étend également à la protection des codes sources grâce aux dictionnaires de codes sources Zscaler.
Par ailleurs, les clients ont la possibilité de surveiller les requêtes envoyées par leurs collaborateurs sur ChatGPT, même si les politiques de prévention des pertes de données ne sont pas déclenchées. L’intégration de l’Incident Receiver avec les politiques DLP de Zscaler leur permettent en effet de visualiser les requêtes des utilisateurs et de capturer les requêtes HTTP POST supérieures à 0 octet. Ces requêtes capturées sont ensuite transmises à l’Incident Receiver de Zscaler, qui peut les envoyer vers ChatGPT, vers l’outil de gestion des incidents de l’entreprise ou vers la boîte mail d’un auditeur.
Protéger les entreprises contre les fuites de données lors de l’utilisation de ChatGPT
Ces fonctionnalités offrent une tranquillité d’esprit aux entreprises qui souhaitent utiliser ChatGPT de manière sécurisée au sein de leur environnement, tout en garantissant une protection efficace contre les fuites de données.
Afin de bloquer l’accès à ChatGPT ou de le rendre accessible en toute sécurité aux salariés, Zscaler propose des contrôles d’accès intelligents. En identifiant des centaines d’outils et de sites d’IA générative, dont ChatGPT d’OpenAI, Zscaler a créé une catégorie d’URL appelée "Applications d’IA et de ML". Cette catégorie permet aux clients de prendre différentes mesures en fonction de leurs besoins, telles que bloquer l’accès à ces outils, mettre en place un accès avec avertissement pour sensibiliser les utilisateurs aux risques liés à l’utilisation de ces outils, ou encore restreindre l’accès uniquement via une isolation du navigateur pour éviter les problèmes de droits de propriété intellectuelle liés au téléchargement des résultats.
Proposer des contrôles d’accès intelligents pour sécuriser l’utilisation de ChatGPT dans les entreprises
En ce qui concerne ChatGPT, l’application d’IA générative la plus populaire, Zscaler propose des contrôles de prévention plus précis grâce à sa solution Cloud Application dédiée à ChatGPT. Celle-ci permet aux organisations de mettre en place des contrôles de prévention plus granulaires pour éviter les fuites de données et protéger leurs droits de propriété intellectuelle.
Les clients peuvent configurer des politiques strictes de prévention des pertes de données en utilisant les politiques DLP de Zscaler, qui offrent une visibilité complète sur le contenu et les requêtes que les utilisateurs soumettent sur ChatGPT, ainsi que sur les contenus téléchargés.
La sécurité des outils d’IA générative est également une préoccupation majeure concernant les risques potentiels de création de code malveillant. Bien que ChatGPT et d’autres outils similaires soient conçus pour prévenir les abus et la création de code malveillant, il est possible de les tromper pour générer du code utilisé à des fins de piratage éthique ou de tests de pénétration, qui pourrait ensuite être modifié pour créer des logiciels malveillants. Bien qu’aucun exemple connu de malware de ce type ne soit encore public, il est nécessaire de rester vigilant, des discussions à ce sujet ayant déjà lieu sur le dark web.