Pour éviter les fuites de données, les Big Tech restreignent l’utilisation par les employés des chatbots IA

les grandes technologies limitent l'utilisation des chatbots des employés

Besoin de contenu pour votre entreprise ? Trouvez les meilleurs écrivains sur WriterAccess !


Testez gratuitement

Le temps presse alors que les gouvernements et les communautés technologiques du monde entier débattent de la politique en matière d’IA. La principale préoccupation est d’assurer la sécurité de l’humanité contre la désinformation et tous les risques qui y sont associés.

Et ce problème s’intensifie maintenant que la confidentialité des données est entrée en jeu. Avez-vous déjà réfléchi aux risques de partager vos informations à l’aide de ChatGPT, Bard ou d’autres chatbots IA ?

Si vous ne l’avez pas déjà fait, vous ne savez peut-être pas que les géants de la technologie prennent des mesures sérieuses pour empêcher les fuites d’informations.

Début mai, Samsung a informé son équipe d’une nouvelle politique interne qui restreint l’utilisation des outils d’IA sur les appareils connectés à ses réseaux. Cela s’est produit après une fuite accidentelle de données sensibles vers ChatGPT.

« L’entreprise examine les mesures visant à créer un environnement sûr pour utiliser en toute sécurité l’IA générative afin d’augmenter la productivité et l’efficacité des employés», a déclaré un porte-parole de Samsung à TechCrunch. Ils ont également mentionné qu’ils restreindraient temporairement l’utilisation de l’IA générative sur les appareils de l’entreprise jusqu’à ce que des mesures de sécurité soient en place.

Un autre géant qui a pris une mesure similaire était Apple. Selon le WSJ, le rival de Samsung s’inquiète également de la fuite de données confidentielles. Les restrictions incluent ChatGPT et certains outils d’IA utilisés pour la programmation. Cela devrait être dans la rigueur alors qu’ils développent des technologies similaires.

A lire aussi :  Google Shopping lance de nouveaux outils d'intelligence artificielle pour rendre les achats en ligne plus réalistes et inclusifs

Plus tôt cette année, un avocat d’Amazon a demandé aux employés de ne partager aucune information ou code avec les chatbots IA après que l’entreprise a découvert des réponses ChatGPT similaires aux données internes d’Amazon.

En plus des géants de la technologie, même des banques comme Bank of America et Deutsche Bank ont ​​mis en place des mesures restrictives internes pour empêcher les fuites d’informations financières.

Et la liste ne cesse de s’allonger. Même Google a également adhéré à ces restrictions !

À vous, Google ?

Selon des sources anonymes de Reuters, la semaine dernière, Alphabet Inc. (la société mère de Google) a conseillé à ses employés de ne pas saisir d’informations sensibles dans les chatbots IA, y compris ironiquement Bard, qui a été lancé aux États-Unis en mars et est en cours de déploiement dans 180 autres pays et 40 langues.

Cette décision de Google est intervenue après que les chercheurs ont découvert que les chatbots peuvent reproduire les données saisies à travers des millions d’exemples, les rendant ainsi disponibles pour les réviseurs humains. Alphabet a averti ses ingénieurs d’éviter de coder les chatbots car l’IA peut les reproduire, ce qui pourrait entraîner la fuite de données technologiques sensibles, y compris au profit de son concurrent IA, ChatGPT.

Google a confirmé son intention d’être transparent sur les limites de sa technologie et a mis à jour sa politique de confidentialité, demandant aux utilisateurs de « évitez d’inclure des informations confidentielles ou sensibles dans vos conversations avec le barde ».

Plus de 100 000 comptes ChatGPT sur le dark web

Un autre aspect qui peut entraîner l’exposition de données sensibles est le fait que les chatbots IA deviennent de plus en plus populaires, et les professionnels du monde entier adoptent ces outils pour optimiser leurs routines, la plupart du temps sans aucun soin ni supervision.

A lire aussi :  Les influenceuses sont majoritaires, mais gagnent 30% de moins que les hommes. Pourquoi encore ça ?

Hier, Group-IB, l’une des principales sociétés mondiales de solutions de cybersécurité basée à Singapour, a révélé avoir découvert plus de 100 000 comptes ChatGPT divulgués avec des informations d’identification stockées dans des journaux de vol d’informations à échanger sur les marchés illégaux du dark web depuis l’année dernière. Ils ont souligné que, par défaut, ChatGPT stocke l’historique des requêtes et des réponses de l’IA, et que le manque de soins essentiels expose plusieurs entreprises et leurs employés à des risques.

Les gouvernements poussent à la réglementation

Les entreprises ne sont pas les seules à s’inquiéter des fuites d’informations via l’IA. En mars, après avoir identifié une violation de données dans OpenAI qui permettait aux utilisateurs de voir les titres de chat d’autres utilisateurs avec ChatGPT, l’Italie a ordonné à OpenAI de cesser de traiter les données des utilisateurs italiens.

Le bogue a été confirmé par OpenAI en mars. Sam Altman, dans votre compte twitter à l’époque déclaré: « Nous avons eu un problème important dans ChatGPT en raison d’un bug dans une bibliothèque open source, pour lequel un correctif a déjà été publié et que nous venons de valider. Un petit pourcentage d’utilisateurs a pu voir les titres de l’historique des discussions des autres utilisateurs. Nous sommes vraiment bouleversés à ce sujet.

Le Royaume-Uni a également publié un livre blanc sur l’IA sur son site officiel, dans le but de stimuler l’innovation responsable et la confiance du public. Le document tient compte de ces principes :

  • sécurité, protection et robustesse ;
  • transparence et explicabilité;
  • justice; responsabilisation et gouvernance;
  • contestabilité et réparation.
A lire aussi :  8 conseils essentiels pour vendre des produits complexes

Alors que l’IA devient de plus en plus présente dans nos vies, il est naturel que de nouvelles préoccupations surgissent, principalement en raison de la rapidité avec laquelle elle avance. Des mesures de sécurité deviennent nécessaires alors que les développeurs s’efforcent de réduire les risques sans compromettre les progrès de cette technologie, que nous reconnaissons déjà comme un grand pas en avant pour l’avenir.

Vous souhaitez vous tenir au courant des meilleures pratiques Marketing ? Alors inscrivez-vous à The Beat, la newsletter interactive de WK Transport-Logistique Content. Nous couvrons toutes les tendances qui comptent dans le paysage du marketing numérique. On se verra là bas!

A propos de l'auteur

Retour en haut