Aller au contenu

Évaluer les risques dans l’utilisation des LLM commerciaux dans un cadre professionnel

Les chatbots basés sur des LLM commerciaux tels ChatGPT, Mistral ou Copilot ont émergé depuis environ 2 ans maintenant. Après une première phase d’expérimentation, certaines professions utilisent désormais l’IA générative dans le cadre de leur activité professionnelle de manière ponctuelle ou pour certaines de manière quotidienne. L’adoption de l’IA est donc très rapide sans nécessairement une maitrise des risques associés.

Le premier risque dans l’adoption de cette brique technologique est la non-maitrise par l’organisation de l’utilisation de ces technologies par leurs collaborateurs. En effet, les solutions commerciales de type ChatGPT ou Mistral sont gratuites ou très accessibles. Dans les CGU, il est bien précisé que les données de prompt et de réponse du chatbot sont collectées mais aussi possiblement réutilisées comme données d’entrainement. Ces données peuvent donc potentiellement être réutilisées dans les réponses pour l’ensemble des utilisateurs du service en question. OpenAI précise par exemple qu’il est possible de retirer ses données afin d’amélioration du service mais selon un mode opt-out (c’est-à-dire non par défaut mais par une demande explicite de l’utilisateur). C’est donc bien un risque de fuite d’informations sensibles qui est posé par une utilisation non-maitrisée de ces chatbots commerciaux.

Sur les risques de l’intégration de brique LLM dans des solutions logicielles, on a un exemple intéressant avec Copilot. Copilot s’intègre aux principales applications d’Office et permet d’exploiter les différentes données d’un utilisateur pour générer du contenu en fonction du contexte. Copilot ne peut accéder qu’aux données auxquelles l’utilisateur a accès en lecture. Toutefois, il est très courant au sein d’une organisation qu’un utilisateur possède des accès plus que nécessaire. Grâce à l’utilisation de Copilot, un utilisateur peut se voir proposer des contenus générés à partir de données sensibles auxquels il ne savait même pas qu’il avait accès. En outre, les capacités de compréhension et de raisonnement de Copilot pourraient être utilisées par un acteur mal intentionné. Il pourrait par exemple demander de rechercher des fichiers ou emails contenant des mots de passe en clair ou des fichiers qui contiennent des tags comme « confidentiel » ou « ne pas diffuser ». Certes, des protections sont mises en place qui restreignent les réponses de Copilot. Mais, les études montrent qu’il existe de nombreuses méthodes de contournement de ces mécanismes.

En conclusion, s’il est indéniable que ces solutions d’IA permettent d’augmenter la productivité, il ne s’agit aucunement d’interdire ces nouveaux usages. Il s’agit plutôt pour les organisations de s’emparer du sujet, d’évaluer et de maitriser les risques et d’encadrer l’usage de ces technologies.

Partager :

Abonnez-vous à la newsletter
Breizh Cyber