
Aby móc sprostać niektórym wyzwaniom związanym z bezpieczeństwem, które występują podczas integracji AI (mianowicie konieczności zabezpieczania modeli, zbiorów danych oraz środowisk trenowania modeli), wciąż powstają nowe wytyczne, standardy oraz struktury, określane przez szanowane instytucje, takie jak Narodowy Instytut Standaryzacji i Technologii (National Institute of Standards and Technology, NIST), Narodowe Centrum Cyberbezpieczeństwa (National Cyber Security Centre, NCSC) oraz wspólnie: Międzynarodowa Organizacja Normalizacyjna (International Organization for Standardization, ISO) oraz Międzynarodowa Komisja Elektrotechniczna (International Electrotechnical Commission, IEC). Nasze podejście do bezpieczeństwa AI jest zgodne z tymi standardami branżowymi oraz wiodącymi praktykami, i ma za zadanie utrzymanie zaufania naszych użytkowników poprzez skupianie się na zwalczaniu pojawiających się wciąż zagrożeń.
Nasze zaangażowanie na rzecz bezpieczeństwa AI jest również wbudowane w cały proces Zoom Secure Development Lifecycle (ZSDLC), który obejmuje bezpieczne zarządzanie łańcuchem dostaw, trenowanie modeli, bezpieczne projektowanie, bezpieczny rozwój, bezpieczne operacje, a także szkolenia pracowników. Wszelkie kwestie związane z AI uwzględniamy w naszych zasadach dotyczących zarządzania, ryzyka i zgodności (Governance, Risk, and Compliance, GRC) oraz działaniach związanych z ryzykiem, w tym obejmujących testowanie i badanie bezpieczeństwa przez nasz Zespół ds. zapewniania bezpieczeństwa.