
För att ta itu med några av säkerhetsutmaningarna som uppstår i och med AI-integreringarna (det vill säga behovet att säkra AI-modeller, datauppsättningar och utbildningsmiljöer), finns det ett antal riktlinjer, standarder och ramverk på gång från respekterade institutioner som National Institute of Standards and Technology (NIST, the National Cyber Security Centre (NCSC) och, gemensamt: the International Organization for Standardization (ISO) och the International Electrotechnical Commission (IEC). Vår metod för AI-säkerhet överensstämmer med dessa branschstandarder och ledande praxis och är utformade för att bevara våra användares förtroende och tillit genom att fokusera på att minska nya hot.
Vårt åtagande för AI-säkerhet integreras även i hela Zoom Secure Development Lifecycle (ZSDLC), som omfattar säker hantering av leverantörskedjan, modellträning, säker utformning, säker utveckling, säker drift och medarbetarutbildning. Vi inkorporerar AI-överväganden i våra GRC-policyer (Governance, Risk, Compliance) och riskramverk, och har även säkerhetstester och forskning som utförs av vårt team för försäkran om säkerhet.