Sécurité et confidentialité AI Companion IA Confiance et sécurité

IA générative, sûreté et sécurité

Suivez notre nouvelle série d’articles pour découvrir ce qu’est la sûreté de l’IA générative et comment la mettre en œuvre, et ce que fait Zoom pour sécuriser l’environnement IA proposé à ses clients. 

3 min. de lecture

Mis à jour le September 27, 2024

Publié le September 16, 2024

Blog AI du CISO
Michael Adams
Michael Adams
Responsable de la sécurité des systèmes d’information

Fort de près de 30 ans d’expérience en sécurité et à des postes à responsabilité, Michael Adams est responsable de la sécurité des systèmes d’information chez Zoom. M. Adams a rejoint Zoom en août 2020 au poste de conseiller en chef du directeur des opérations et du responsable de la sécurité des systèmes d’information. Il a également contribué aux programmes de l’entreprise sur les menaces internes, la veille internationale, la garantie des opérations et les aspects juridiques de la sécurité. Diplômé de la Marine des États-Unis, il a commencé sa carrière en tant qu’ingénieur, avant d’être conseiller pour deux présidents du Comité des chefs d’état-major interarmées, différentes grandes entreprises privées et publiques cotées en bourse, ainsi que les plus hauts responsables du gouvernement des États-Unis. Après quelques années fructueuses en tant que cadre dirigeant chez Palantir, il a également été l’un des associés d’un grand cabinet international d’avocats. M. Adams vit avec sa femme, leurs deux enfants et leur chien (un Chesapeake Bay retriever) à Charlotte, en Caroline du Nord. Très impliqués dans la vie de la communauté, M. Adams et sa famille sont des supporteurs inconditionnels de l’équipe de base-ball des Orioles de Baltimore.

L’intelligence artificielle est aujourd’hui entrée dans les mœurs et nous a permis de battre des records d’efficacité. La tentation est grande de penser que cette technologie n’a pas de limites et de donner libre cours à notre imagination pour ouvrir le champ des possibles. 

Dans l’euphorie de la recherche de nouvelles idées innovantes, on a tendance à oublier que la mise en œuvre d’une solution d’IA requiert un engagement soutenu sur la sûreté et la sécurisation des données sous-jacentes. Nous lançons une série de blogs Zoom afin de parler de la sûreté de l’IA générative et de sa mise en œuvre, et d’expliquer ce que fait Zoom pour sécuriser l’environnement IA proposé à ses clients.

Qu’est-ce que l’IA générative, et comment fonctionne-t-elle ?

L’IA peut être utilisée à des fins diverses, et l’IA générative vous fournit des outils permettant de créer du contenu (images, messages, sons, vidéos et données, par exemple) à partir des multiples entrées et sorties des modèles d’intelligence artificielle. L’IA générative va au-delà de ce qui est humainement possible en exploitant différents algorithmes d’intelligence artificielle et de machine learning pour produire des résultats instantanés à la demande. Elle permet ainsi à ses utilisateurs de travailler plus vite et de gagner un temps précieux grâce à des outils qui leur permettent, par exemple, d’ébaucher des synthèses de réunion, de créer des images et de vaincre l’angoisse de la page blanche via l’aide à la rédaction. 

Pour l’utilisateur final, les solutions d’IA générative peuvent représenter un gain de temps considérable qu’il peut alors consacrer aux tâches les plus essentielles. Cela dit, il est important d’évaluer différents éléments avant de choisir les outils d’IA que vous allez intégrer dans vos processus.

  1. Identifiez et définissez les problèmes que vous souhaitez résoudre. Cherchez-vous à améliorer votre service clientèle ? À simplifier des tâches répétitives ? À reconnaître les nouvelles tendances ? À traduire et localiser rapidement du contenu ?
  2. Établissez un calendrier. À quelle échéance pouvez-vous explorer, évaluer et mettre en œuvre vos options en matière d’IA ? Quelles équipes devront valider le projet au sein de votre entreprise ? Quel sera le coût d’un manque de réactivité ?
  3. Précisez ce qui compte pour vous. Chaque solution d’IA a ses propres avantages et inconvénients, et cela détermine les questions que vous poserez aux fournisseurs envisagés. Quelles sont les fonctionnalités incluses dans leurs services et en quoi répondent-elles à vos besoins ?

Au-delà de ces éléments, il est important de savoir comment un fournisseur aborde les questions de sûreté et de sécurité de l’IA, et quelles mesures de confidentialité il applique à la mise en œuvre et à l’utilisation de l’IA générative. Nous recommandons également aux entreprises et à leurs utilisateurs finaux de s’intéresser aux méthodes du fournisseur concernant la collecte et l’utilisation des données servant à alimenter les outils d’IA qu’ils souhaitent mettre en œuvre.

Quelle est la différence entre sûreté et sécurité quand on parle d’IA ?

Pour commencer, il est important de bien comprendre la différence entre sûreté et sécurité quand on parle d’IA. Les questions de sûreté et de sécurité constituent toutes deux des aspects fondamentaux du déploiement et de la protection des systèmes optimisés par l’IA, mais elles sont distinctes. Voici pourquoi :

  • La sécurité en matière d’IA porte sur la protection de la confidentialité, de l’intégrité et de la disponibilité des données utilisées dans les modèles et systèmes d’IA.
  • La sûreté se rapporte à des considérations plus vastes liées à la robustesse et la fiabilité, aux questions éthiques, à l’impact environnemental, sociétal et économique sur le long terme, ainsi qu’aux conséquences sur les valeurs et les droits humains.

L’IA et la sécurité chez Zoom

L’IA et la sécurité chez Zoom

Pour régler certains des problèmes de sécurité liés aux intégrations de l’IA (à savoir la nécessité de protéger les modèles d’IA, les ensembles de données et les environnements d’entraînement), certains organismes de premier plan comme le NIST (National Institute of Standards and Technology), le NCSC (National Cyber Security Centre), ainsi que conjointement l’ISO (Organisation internationale de normalisation) et la CEI (commission électrotechnique internationale), définissent des directives, des normes et des cadres. Notre approche concernant la sécurité de l’IA est alignée sur ces normes sectorielles et sur les pratiques courantes, et vise à préserver la confiance de nos utilisateurs par l’atténuation des menaces émergentes. 

Notre engagement en faveur de la sécurité de l’IA est aussi intégré dans tout le cycle de développement logiciel sécurisé de Zoom (ZSDLC), notamment dans la gestion de la chaîne d’approvisionnement, l’entraînement des modèles, la conception, le développement, l’exploitation et les formations. De plus, les questions d’IA sont traitées dans notre politique GRC (Gouvernance, risque et conformité) et notre cadre de gestion des risques, et incluses dans les recherches et tests de sécurité menés par notre équipe Assurance de la sécurité.

L’IA et la sûreté chez Zoom

Notre approche en matière de sûreté de l’IA s’appuie avant tout sur les modèles et les données que nous utilisons pour construire nos services. S’agissant des modèles hébergés par Zoom, nous validons et gérons nos données d’entraînement et, lorsque nous recourons à des fournisseurs tiers, nous vérifions que leurs procédures de sûreté sont adaptées à notre mission. Nos évaluations consistent à tester les modèles sur des indicateurs de sûreté standard relatifs aux problèmes couramment rencontrés lors de l’entraînement. 

Nous mettons à la disposition des titulaires de compte et administrateurs des commandes permettant de gérer la disponibilité des fonctionnalités d’IA dans leur compte, ainsi que des options de déploiement au niveau des groupes et des utilisateurs. Ces options incluent, selon le cas, la révision humaine des contenus générés avant leur diffusion auprès d’un public plus large. De plus, lorsque vous utilisez ces fonctionnalités en réunion dans Zoom Workplace (notre plateforme de collaboration ouverte dotée d’AI Companion), l’icône aux deux étoiles scintillantes vous indique que l’IA est activée et utilisée, pour assurer la transparence envers les clients et participants. 

Chez Zoom, la sécurité et la sûreté de l’IA s’articulent autour de trois axes :

  1. Protéger les produits et services d’IA de Zoom qui utilisent l’IA générative, notamment Zoom AI Companion et Zoom Contact Center Expert Assist, ainsi que leurs modèles sous-jacents.
  2. Exploiter l’IA sur l’ensemble de notre programme de sécurité et dans toutes nos pratiques pour anticiper l’évolution des menaces.
  3. Sécuriser l’utilisation interne de l’IA chez Zoom.

Gérer la sûreté et la sécurité dans le cadre d’une approche fédérée de l’IA

Zoom et son approche fédérée de l’IA

Chez Zoom, nous avons adopté une approche fédérée de l’IA. Autrement dit, nous appliquons les meilleurs grands modèles de langage à une tâche spécifique, y compris des modèles d’IA tiers bien connus de notre clientèle. Les clients peuvent sélectionner les fonctionnalités à activer et, pour certaines fonctionnalités, ils peuvent choisir de n’utiliser que des modèles hébergés par Zoom. Ainsi, les administrateurs contrôlent mieux la disponibilité de ces fonctionnalités dans leur entreprise.

Conformément à son engagement en faveur d’une IA responsable, Zoom n’utilise pas les audios, vidéos, chats, partages d’écran, pièces jointes ou autres contenus client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tiers. Pour plus d’informations sur le traitement de vos données par Zoom AI Companion, consultez notre page d’assistance.

AI Companion, sûreté, sécurité et avenir

Dans ce premier article, nous n’avons fait qu’effleurer le sujet de la sûreté et la sécurité de l’IA. Nous comptons bien l’approfondir au cours des prochains mois en détaillant plus avant nos initiatives en la matière. Nous avons la conviction que l’IA est un incroyable outil pour optimiser le travail et qu’elle est promise à un grand avenir. À mesure que nous enrichissons AI Companion et Zoom Workplace de nouvelles fonctionnalités, nous vous assurons que la sûreté et la sécurité de l’IA seront toujours notre priorité. 

Pour en savoir plus sur l’approche adoptée par Zoom en matière de confidentialité et de sécurité, participez à notre prochain webinaire, Zoom’s Approach to AI Privacy and Security, le 26 septembre 2024. 

Nos clients nous aiment

Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox
Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox

Zoom, une plateforme pour se connecter