ChatGPT, trop de partages sensibles !

Juil 25, 2023 | Ai | 0 commentaires

42 % des employés belges partagent des données professionnelles sensibles avec ChatGPT, a calculé Kasperksy. C’est mettre potentiellement en danger des données IP et privées ainsi que des informations confidentielles.

Trop de partages de données sensibles ! Mais à qui la faute ? 44 % des employés déclarent qu’il n’y a pas de directives pour réglementer l’utilisation de ChatGPT au bureau. Et si des telles règles existent, 21 % déclarent qu’elles ne sont pas suffisamment claires ou complètes. En outre, 24 % pensent que ces règles ou directives ne sont pas nécessaires, ce qui pourrait déboucher sur une mauvaise utilisation de ChatGPT et poser des problèmes de confidentialité et de transparence.   

Lorsqu’on leur demande en quoi consistent exactement les directives données, 38 % des personnes interrogées ont répondu qu’elles avaient reçu des instructions verbales, soit lors d’une réunion d’entreprise (22 %), soit individuellement (16 %). Seuls 18 % ont déclaré que les règles étaient formellement énoncées dans un e-mail officiel et un peu moins de 15 % dans un document officiel spécifique, ce qui indique que la majorité des organisations belges ne prennent pas la question au sérieux. 

Etablir des politiques détaillées pour éviter les partages sensibles

« Malgré leurs avantages évidents, nous ne devons pas oublier que les agents conversationnels tels que ChatGPT sont encore imparfaits, car ils ont tendance à générer des affirmations non fondées et à fabriquer des sources d’information, commente Vladislav Tushkanov, Data Science Lead, Kaspersky. La protection de la vie privée est également un problème important, puisque de nombreux services d’IA peuvent réutiliser les contributions des utilisateurs pour améliorer leurs systèmes, avec des fuites de données à la clé. Enfin, si des hackers volent les identifiants de connexion d’utilisateurs ou les achètent sur le dark web, ils peuvent accéder aux informations potentiellement sensibles stockées dans l’historique des chats. »

Conclusion : les entreprises qui pourraient bénéficier de l’utilisation de ChatGPT sur le lieu de travail et d’autres services LLM ont tout intérêt à établir des politiques détaillées pour les employés afin de contrôler leur utilisation. Avec des directives claires, les employés peuvent éviter à la fois une utilisation excessive et des violations potentielles de données qui saperaient la stratégie de cybersécurité la plus solide. 

Vérifier les faits avant de s’attribuer des mérites 

Un quart des sondés (25 %) admettent utiliser ChatGPT au travail pour des tâches textuelles, telles que la génération de contenu, la traduction ou l’amélioration de textes. Environ la même proportion (24 %) l’utilise pour gagner du temps en résumant de longs textes ou des notes de réunion, par exemple. 

Cependant, lorsqu’il s’agit d’utiliser le contenu généré, plus de la moitié des employés (57 %) déclarent ne pas vérifier son exactitude ni sa fiabilité avant de le faire passer pour leur propre travail. En revanche, un tiers des sondés (34 %) vérifient le résultat avant de l’utiliser, y compris s’il est copié/collé mot pour mot.