Security & Privacy AI Companion AI Vertrouwen en veiligheid

Een inleiding tot AI-veiligheid en -beveiliging

In onze nieuwe reeks onthullen we hoe en waarom je generatieve AI veilig moet implementeren en wat Zoom onderneemt om een veilige AI-omgeving te creëren voor onze klanten. 

3 minuten lezen

Bijgewerkt op September 27, 2024

Gepubliceerd op September 16, 2024

AI-blog CISO
Michael Adams
Michael Adams
Chief Information Security Officer

Michael Adams, Chief Information Security Officer bij Zoom, heeft bijna 30 jaar ervaring op het gebied van beveiliging en leiderschap. Michael kwam in augustus 2020 bij Zoom werken als Chief Counsel van de COO en CISO. In die rol ontwikkelde hij onze juridische programma's op het gebied van insiderrisico, wereldwijde inlichtingen, operationele zekerheid en beveiliging. Hij is afgestudeerd aan de United States Naval Academy en begon zijn carrière als technicus. Eerder was Michael adviseur van twee voorzitters van de Joint Chiefs of Staff (militair adviesorgaan van de Amerikaanse federale overheid), tal van prominente beursgenoteerde en niet-beursgenoteerde ondernemingen en voor de hoogste niveaus van de Amerikaanse overheid. Hij boekte successen als bestuurder bij Palantir en als partner bij een groot internationaal advocatenkantoor. Michael en zijn vrouw, twee kinderen en Chesapeake Bayretriever wonen in Charlotte, North Carolina in de VS, waar ze actief betrokken zijn bij de gemeenschap en groot fan zijn van honkbalclub Baltimore Orioles.

Kunstmatige intelligentie is tegenwoordig normaal en heeft ons geholpen efficiënter te werken door middel van technologie. Hierdoor lijken de voordelen van AI vrijwel grenzeloos, waardoor we onze verbeelding de vrije loop kunnen laten voor een nieuwe kijk op de mogelijkheden. 

Hoewel het leuk is om het volgende geweldige idee te bedenken, vereist het implementeren van een nieuwe AI-oplossing een sterke toewijding aan veiligheid en het beveiligen van de onderliggende gegevens. Wij starten een nieuwe reeks op de Zoom-blog om je te vertellen hoe en waarom je generatieve AI veilig moet implementeren en wat Zoom onderneemt om een veilige AI-omgeving te creëren voor onze klanten.

Wat is generatieve AI en hoe werkt het?

AI kan veel verschillende doelen dienen en generatieve AI biedt je de tools om nieuwe inhoud te genereren, waaronder afbeeldingen, woorden, geluiden, video's en gegevens via meerdere inputs en outputs naar AI-modellen. Generatieve AI, ook wel GenAI genoemd, gaat verder dan wat menselijk mogelijk is en maakt gebruik van verschillende AI- en machine learning-algoritmen om op verzoek onmiddellijke resultaten te leveren. In ruil daarvoor kunnen mensen hun werk versnellen en kostbare tijd besparen met generatieve AI-tools voor taken zoals samenvattingen van vergaderingen opstellen, afbeeldingen zoeken of inspiratie vinden met copywriting-ondersteuning. 

Generatieve AI-oplossingen zijn vaak van onschatbare waarde voor de eindgebruiker, die nu meer tijd heeft om zich te richten op zinvoller werk. Voordat je kiest welke AI-tools je in je workflows wilt implementeren, moet je echter een paar zaken overwegen.

  1. Bepaal en schets de problemen die je wilt oplossen. Probeer je de klantenservice te verbeteren? Repetitieve taken te vereenvoudigen? Nieuwe trends te beoordelen? Inhoud snel te vertalen en te lokaliseren? 
  2. Stel een tijdlijn op.Hoe snel kun je je AI-opties verkennen, beoordelen en implementeren? Welke teams in je organisaties moeten ermee instemmen? Wat staat er op het spel als je te traag werkt?
  3. Beslis wat voor jou belangrijk is.Verschillende AI-tools bieden verschillende voor- en nadelen en je moet de betreffende leveranciers bepaalde vragen stellen. Welke functies zijn inbegrepen in hun dienstenaanbod en hoe sluiten ze aan bij je doelstellingen?

Naast die vragen is het belangrijk om te kijken hoe een leverancier omgaat met de veiligheid en beveiliging van AI, en welke privacymaatregelen deze hanteert voor de implementatie en het gebruik van generatieve AI. Ook raden we organisaties en hun eindgebruikers aan te bestuderen hoe gegevens worden verzameld en gebruikt om de AI-tools die ze willen implementeren mogelijk te maken.

Wat is AI-veiligheid versus AI-beveiliging?

Om te beginnen, is het belangrijk te weten wat het verschil is tussen AI-veiligheid en AI-beveiliging. AI-veiligheid en AI-beveiliging zijn fundamentele, maar afzonderlijke aspecten van de implementatie en bescherming van AI-systemen. Specifiek geldt het volgende:

  • AI-beveiliging is gericht op het beschermen van de vertrouwelijkheid, integriteit en beschikbaarheid van gegevens die worden gebruikt in AI-modellen en -systemen.
  • AI-veiligheid omvat bredere overwegingen met betrekking tot robuustheid en betrouwbaarheid, ethische implicaties, maatschappelijke, economische en milieu-effecten op de lange termijn en impact op mensenrechten en waarden.

AI-beveiliging bij Zoom

AI-beveiliging bij Zoom

Om enkele van de beveiligingsuitdagingen van AI-integraties (namelijk de noodzaak om AI-modellen, datasets en trainingsomgevingen te beschermen) het hoofd te bieden, bestaan er een reeks opkomende richtlijnen, normen en kaders van gerespecteerde instellingen. Denk maar aan het National Institute of Standards and Technology (NIST), het National Cyber Security Centre (NCSC) en gezamenlijk de International Organization for Standardization (ISO) en de International Electrotechnical Commission (IEC). Onze aanpak van AI-beveiliging sluit aan bij deze industrienormen en toonaangevende praktijken. Ze is ontworpen om het vertrouwen van onze gebruikers te behouden door ons te richten op het beperken van opkomende bedreigingen. 

Onze toewijding aan AI-beveiliging is ook geïntegreerd in de gehele Zoom Secure Development Lifecycle (ZSDLC). Dit omvat een veilig toeleveringsketenbeheer, modeltraining, veilig ontwerp, veilige ontwikkeling, veilige bedrijfsvoering en training van werknemers. We integreren AI-overwegingen in ons GRC-beleid (governance, risico's en compliance) en risicokader. Ook besteden we aandacht aan beveiligingstesten en onderzoek uitgevoerd door ons Security Assurance-team.

Hoe pakt Zoom AI-veiligheid aan?

Onze aanpak van AI-veiligheid begint bij de modellen en gegevens die we gebruiken om ons dienstenaanbod samen te stellen. Voor door Zoom gehoste modellen valideren en beheren we onze trainingsgegevens. Bij het selecteren van externe leveranciers evalueren we hun veiligheidsprocedures om er zeker van te zijn dat ze aansluiten bij onze missie. Tijdens ons beoordelingsproces toetsen we de modellen aan standaard veiligheidsmaatstaven om veelvoorkomende problemen die kunnen optreden te valideren via modeltraining. 

Accounteigenaren en -beheerders hebben besturingselementen om de beschikbaarheid van AI-functies voor hun accounts te beheren, waaronder besturingselementen op gebruikers- en groepsniveau die opties voor implementatie bieden. Deze opties omvatten, indien van toepassing, het toestaan van menselijke beoordeling van outputs voordat deze op grotere schaal worden gedeeld. Wanneer je functies tijdens vergaderingen gebruikt binnen Zoom Workplace (ons open samenwerkingsplatform met AI Companion), geeft het pictogram van een sterretje bovendien aan dat AI is ingeschakeld en wordt gebruikt om transparantie te bieden aan klanten en deelnemers. 

Hier zijn drie verschillende manieren waarop we AI-beveiliging en -veiligheid aanpakken bij Zoom:

  1. Het beschermen van de AI-producten en -diensten van Zoom die gebruikmaken van generatieve AI – zoals Zoom AI Companion en Zoom Contact Center Expert Assist – en de onderliggende modellen die deze ondersteunen.
  2. Het benutten van AI in ons beveiligingsprogramma en onze beveiligingspraktijken om de steeds veranderende dreigingen een stap voor te blijven.
  3. Het beveiligen van het interne gebruik van AI door Zoom.

Het beheer van veiligheid en beveiliging met een gefedereerde AI-aanpak

De gefedereerde AI-aanpak van Zoom

Bij Zoom hanteren we een gefedereerde aanpak van AI.Dit betekent dat we de beste grote taalmodellen (LLM's) toepassen voor een specifieke taak, inclusief AI-modellen van derden waarmee klanten al vertrouwd zijn. Klanten kunnen kiezen welke functies ze gebruiken en of ze alleen door Zoom gehoste modellen willen gebruiken, wat mogelijk is voor bepaalde functies. Op die manier hebben beheerders meer controle over wat er binnen hun organisatie beschikbaar is.

Overeenkomstig onze inzet voor verantwoorde AI, gebruikt Zoom geen klantinhoud in de vorm van audio, video, chat, gedeelde schermen, bijlagen of andere communicatie (zoals resultaten van peilingen, whiteboards en reacties) om de kunstmatige-intelligentiemodellen van Zoom of een derde te trainen. Bezoek onze ondersteuningspagina voor meer informatie over hoe Zoom AI Companion je gegevens verwerkt.

AI Companion, veiligheid, beveiliging en de toekomst

Hoewel deze eerste discussie over AI-veiligheid en -beveiliging nog maar een prille aanzet is, zullen we de komende maanden meer vertellen over hoe we ons uiterste best doen tijdens de wereldwijde verschuiving naar AI. Wij geloven dat AI een grote troef is om onze manier van werken te verbeteren en dat dit nog maar het begin is. Terwijl we nieuwe functies voor AI Companion en Zoom Workplace blijven uitbrengen, mag je gerust zijn dat AI-veiligheid en -beveiliging voorop staan in ons ontwikkelingsproces. 

Als je meer wilt weten over Zooms aanpak van privacy en beveiliging, neem dan deel aan ons aanstaande webinar, Zooms aanpak van AI-privacy en -beveiliging, op 26 september 2024. 

Onze klanten waarderen ons

Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox
Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox

Zoom – Eén platform voor verbinding