Bezpieczeństwo i prywatność AI Companion AI Zaufanie i bezpieczeństwo

Wprowadzenie do bezpieczeństwa i ochrony AI

W naszej nowej serii omówimy, jak i dlaczego należy wdrażać narzędzia generatywnej sztucznej inteligencji w bezpieczny sposób, a także jakie działania podejmuje Zoom, by tworzyć bezpieczne środowisko AI dla swoich klientów. 

3 min czytania

Aktualizacja: January 21, 2025

Opublikowano September 16, 2024

Blog CISO AI
Michael Adams
Michael Adams
Dyrektor ds. bezpieczeństwa informacji

Michael Adams, pełniący funkcję dyrektora ds. bezpieczeństwa informacji w Zoom, posiada prawie 30 lat doświadczenia w zakresie bezpieczeństwa i przywództwa. Michael dołączył do Zoom w sierpniu 2020 r. i pełnił funkcję głównego doradcy prawnego dyrektora ds. operacji i dyrektora ds. bezpieczeństwa informacji w czasie, gdy tworzone były programy dotyczące zagrożeń wewnętrznych, globalnego wywiadu, zapewnienia ciągłości operacji i bezpieczeństwa. Jako absolwent amerykańskiej akademii marynarki wojennej, który rozpoczął karierę jako inżynier, Michael był wcześniej doradcą dwóch przewodniczących połączonych szefów sztabu, wielu czołowych publicznych i prywatnych firm oraz amerykańskich agencji rządowych najwyższego szczebla. Piastował stanowisko kierownicze w firmie Palantir i był partnerem w dużej międzynarodowej kancelarii prawnej. Michael wraz z żoną, dwojgiem dzieci i psem mieszkają w Charlotte w Karolinie Północnej, gdzie są aktywnymi członkami społeczności i wieloletnimi fanami drużyny Orioles Baltimore.

Sztuczna inteligencja (AI) weszła do głównego nurtu i pomogła nam osiągnąć nowe poziomy wydajności dzięki wykorzystaniu technologii. To sprawia, że korzyści z AI wydają się w zasadzie nieograniczone, dając naszej wyobraźni mnóstwo przestrzeni na to, co do tej pory wydawało się niemożliwe. 

Mimo iż wymyślanie nowych, wspaniałych koncepcji to świetna zabawa, wdrażanie rozwiązań AI wymaga poważnego zaangażowania w zapewnianie ochrony i bezpieczeństwa danych, które te rozwiązania napędzają. Rozpoczynamy zatem nową serię wpisów na blogu Zoom, w których będziemy omawiać, jak i dlaczego należy wdrażać narzędzia generatywnej sztucznej inteligencji w bezpieczny sposób, a także jakie działania podejmuje Zoom, by tworzyć bezpieczne środowisko AI dla swoich klientów.

Czym jest generatywna sztuczna inteligencja i jak działa?

AI może mieć wiele różnych zastosowań, a generatywna sztuczna inteligencja zapewnia narzędzia do tworzenia nowych treści, w tym obrazów, tekstów, dźwięków, filmów i danych w oparciu o dane wejściowe i wyjściowe modeli AI. Niekiedy określana jako GenAI (Generative Artificial Intelligence), generatywna sztuczna inteligencja wykracza poza ludzkie możliwości, wykorzystując różne algorytmy AI oraz uczenia maszynowego, aby dostarczać natychmiastowych danych po wyświetleniu monitu. W rezultacie dzięki narzędziom GenAI ludzie mogą usprawnić swoją pracę i zaoszczędzić cenny czas na zadaniach takich jak tworzenie szkiców podsumowań ze spotkań, pozyskiwanie obrazów czy pokonywanie zastojów twórczych dzięki wsparciu narzędzi copywriterskich. 

Rozwiązania generatywnej sztucznej inteligencji mogą być nieocenione dla użytkowników końcowych, umożliwiając im skupienie się na istotniejszych zadaniach. Zanim jednak zdecydujesz, które narzędzia AI wdrożysz do swoich procesów roboczych, rozważ kilka kwestii.

  1. Ustal i zdefiniuj problemy, które chcesz rozwiązać. Chcesz usprawnić obsługę klienta? Uprościć powtarzalne zadania? Analizować nowe trendy? Szybko tłumaczyć i lokalizować treści? 
  2. Stwórz ramy czasowe.Jak szybko jesteś w stanie zbadać, ocenić i wdrożyć swoje opcje w zakresie AI? Które zespoły w Twojej organizacji będą musiały zostać rozwiązane? Jaki jest koszt zbyt wolnego działania?
  3. Zdecyduj, co jest dla Ciebie ważne.Różne narzędzia AI wiążą się z różnymi zaletami, wadami i pytaniami, które należy zadać rozważanym dostawcom. Jakie funkcje obejmują ich usługi i w jaki sposób pomogą Ci one w osiągnięciu Twoich celów?

Poza rozważeniem tych pytań ważne jest również sprawdzenie, w jaki sposób dany dostawca podchodzi do kwestii bezpieczeństwa AI oraz jakie stosuje środki ochrony prywatności w zakresie wdrażania i używania narzędzi GenAI. Zalecamy również, by organizacje i ich użytkownicy końcowi upewniali się, w jaki sposób gromadzone i wykorzystywane są dane do zasilania narzędzi AI, które chcą wdrożyć.

Czym jest bezpieczeństwo AI w porównaniu do ochrony AI?

Na początek ważne jest, aby wiedzieć, jak bezpieczeństwo AI porównuje się z ochroną AI. Bezpieczeństwo i ochrona AI to podstawowe, ale odrębne aspekty wdrażania i ochrony systemów AI:

  • Ochrona AI koncentruje się na ochronie poufności, integralności i dostępności danych wykorzystywanych w modelach i systemach AI.
  • Bezpieczeństwo AI obejmuje szersze kwestie związane z solidnością i niezawodnością, implikacjami etycznymi, długoterminowym wpływem społecznym, gospodarczym i środowiskowym oraz wpływem na prawa i wartości człowieka.

Bezpieczeństwo AI w Zoom

Bezpieczeństwo AI w Zoom

Aby móc sprostać niektórym wyzwaniom związanym z bezpieczeństwem, które występują podczas integracji AI (mianowicie konieczności zabezpieczania modeli, zbiorów danych oraz środowisk trenowania modeli), wciąż powstają nowe wytyczne, standardy oraz struktury, określane przez szanowane instytucje, takie jak Narodowy Instytut Standaryzacji i Technologii (National Institute of Standards and Technology, NIST), Narodowe Centrum Cyberbezpieczeństwa (National Cyber Security Centre, NCSC) oraz wspólnie: Międzynarodowa Organizacja Normalizacyjna (International Organization for Standardization, ISO) oraz Międzynarodowa Komisja Elektrotechniczna (International Electrotechnical Commission, IEC). Nasze podejście do bezpieczeństwa AI jest zgodne z tymi standardami branżowymi oraz wiodącymi praktykami, i ma za zadanie utrzymanie zaufania naszych użytkowników poprzez skupianie się na zwalczaniu pojawiających się wciąż zagrożeń. 

Nasze zaangażowanie na rzecz bezpieczeństwa AI jest również wbudowane w cały proces Zoom Secure Development Lifecycle (ZSDLC), który obejmuje bezpieczne zarządzanie łańcuchem dostaw, trenowanie modeli, bezpieczne projektowanie, bezpieczny rozwój, bezpieczne operacje, a także szkolenia pracowników. Wszelkie kwestie związane z AI uwzględniamy w naszych zasadach dotyczących zarządzania, ryzyka i zgodności (Governance, Risk, and Compliance, GRC) oraz działaniach związanych z ryzykiem, w tym obejmujących testowanie i badanie bezpieczeństwa przez nasz Zespół ds. zapewniania bezpieczeństwa.

Podejście Zoom do bezpieczeństwa AI

Nasze podejście do bezpieczeństwa AI zaczyna się od modeli i danych, które wykorzystujemy do tworzenia naszych usług. W przypadku modeli hostowanych przez Zoom weryfikujemy nasze dane używane do trenowania modeli i nimi zarządzamy, a wybierając dostawców zewnętrznych, oceniamy ich procedury bezpieczeństwa, aby zapewnić, że są one zgodne z naszą misją. Nasze procesy oceny obejmują testowanie modeli w oparciu o standardowe wskaźniki bezpieczeństwa, tak aby możliwa była weryfikacja typowych problemów, które mogą pojawić się podczas trenowania modeli. 

Właściciele kont i administratorzy dysponują mechanizmami kontrolnymi, by móc zarządzać dostępnością funkcji AI dla swoich kont, w tym mechanizmami kontrolnymi na poziomie użytkownika i grupy, które zapewniają różne opcje wdrożenia. Opcje te obejmują, w stosownych przypadkach, zezwalanie na ludzką weryfikację danych wyjściowych przed ich szerszym udostępnieniem. Ponadto, podczas korzystania z funkcji dostępnych w ramach spotkania w Zoom Workplace (naszej otwartej platformie do współpracy z AI Companion), ikona iskierki powiadamia, że opcja AI jest włączona oraz w użyciu, tak aby zapewnić przejrzystość w stosunku do klientów i uczestników. 

Oto trzy różne sposoby, w jakie podchodzimy do bezpieczeństwa AI w Zoom:

  1. Ochrona produktów i usług Zoom AI, które korzystają z GenAI – takich jak Zoom AI Companion orazZoom Contact Center Expert Assist – a także powiązanych modeli, które je obsługują.
  2. Wykorzystywanie sztucznej inteligencji w naszych programach i praktykach bezpieczeństwa w celu wyprzedzania ewoluujących zagrożeń.
  3. Zabezpieczanie wewnętrznego wykorzystywania AI w Zoom.

Zarządzanie bezpieczeństwem i ochroną wraz z integracyjnym podejściem do AI

Integracyjne podejście Zoom do AI

W Zoom przyjmujemy integracyjne podejście do AI, co oznacza, że używamy najlepszych dużych modeli językowych do konkretnych zadań, w tym modeli AI zewnętrznych dostawców, które klienci już znają. Klienci mogą wybierać, z których funkcji będą korzystać oraz czy chcą używać wyłącznie modeli hostowanych przez Zoom – jest to opcja dostępna dla wybranych funkcji. Dzięki temu administratorzy mają większą kontrolę nad tym, jakie funkcje są dostępne w ich organizacji.

W zgodzie z naszym zobowiązaniem do odpowiedzialnego korzystania z AI Zoom nie wykorzystuje żadnych materiałów audio i wideo, czatu, treści pochodzących z udostępniania ekranu, załączników ani innych wiadomości takich jak treści klientów (w tym wyników ankiet, zawartości tablic i reakcji) do celów trenowania modeli sztucznej inteligencji Zoom lub innych firm. Aby uzyskać więcej informacji o tym, jak Zoom AI Companion przetwarza dane klientów, odwiedź naszą stronę pomocy.

AI Companion, bezpieczeństwo, ochrona i przyszłość

Wprawdzie ta wstępna dyskusja na temat bezpieczeństwa AI to zaledwie dotknięcie powierzchni, w nadchodzących miesiącach będziemy dzielić się bardziej szczegółowymi informacjami o tym, jak intensyfikujemy nasze wysiłki w ramach globalnego przejścia na AI. Wierzymy, że sztuczna inteligencja to świetny sposób na usprawnienie naszej pracy, a to dopiero początek. Ponieważ w dalszym ciągu udostępniamy nowe funkcje dla AI Companion oraz Zoom Workplace, pragniemy zapewnić, że bezpieczeństwo AI jest naszym priorytetem w procesie rozwoju. 

Jeśli chcesz dowiedzieć się więcej na temat podejścia Zoom do kwestii ochrony prywatności i bezpieczeństwa, weź udział w nadchodzącym webinarze, pt. Podejście Zoom do ochrony prywatności i bezpieczeństwa AI, który odbędzie się 26 września 2024 roku. 

Nasi klienci nas kochają

Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox
Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox

Zoom – jedna platforma do połączeń