Deep Dive mit Zoom-CTO: So maximiert unser ganzheitlicher KI-Ansatz Leistung, Qualität und Erschwinglichkeit
Xuedong Huang, CTO von Zoom, erläutert unseren ganzheitlichen KI-Ansatz und wie er beste Leistung zu geringen Kosten bietet.
In unserer neuen Serie erfahren Sie, wie und warum Sie im Umgang mit generativer KI auf Sicherheit achten sollten und was Zoom dafür tut, eine sichere KI-Umgebung für unsere Kunden zu schaffen.
Aktualisiert am January 21, 2025
Veröffentlicht am September 16, 2024
Michael Adams verfügt als Chief Information Security Officer bei Zoom über fast 30 Jahre Erfahrung in den Bereichen Sicherheit und Mitarbeiterführung. Michael kam im August 2020 zu Zoom, war als Chief Counsel für COO und CISO tätig und implementierte im Unternehmen Programme für Insider-Risiken, globale Informationsgewinnung, Betriebssicherheit und Sicherheitsrecht. Michael ist Absolvent der U.S. Naval Academy und begann seine Karriere als Ingenieur. Er war zuvor Berater für zwei Vorsitzende der Joint Chiefs of Staff, zahlreicher bekannter börsennotierter und privater Unternehmen sowie der höchsten Ebenen der US-Regierung. Er war außerdem erfolgreich als Führungskraft bei Palantir und als Partner in einer großen internationalen Anwaltskanzlei tätig. Michael lebt mit seiner Frau, seinen zwei Kindern und seinem Chesapeake-Bay-Retriever in Charlotte, North Carolina. Alle sind aktive Mitglieder der Gemeinde und langjährige Fans der Baltimore Orioles.
Künstliche Intelligenz ist im Mainstream angekommen und hat uns geholfen, durch Technologie effizienter als je zuvor zu arbeiten. Dies lässt die Vorteile der KI praktisch grenzenlos erscheinen und gibt unserer Vorstellungskraft viel Spielraum, die Grenzen des Möglichen zu verschieben.
Es macht zwar Spaß, sich das nächste große Ding auszudenken, aber die wirkliche Implementierung einer neuen KI-Lösung erfordert ein starkes Engagement für die Sicherheit und den Schutz der Daten, auf der sie aufbaut. Wir starten eine neue Serie im Zoom Blog, in der wir diskutieren, wie und warum Sie bei der Einführung generativer KI auf Sicherheit achten sollten und was Zoom dafür tut, eine sichere KI-Umgebung für unsere Kunden zu schaffen.
KI kann vielen verschiedenen Zwecken dienen, und generative KI gibt Ihnen Werkzeuge an die Hand, mit denen Sie neue Inhalte wie Bilder, Wörter, Töne, Videos und Daten durch verschiedene Arten von Befehlen und Ergebnissen generieren können. Die generative KI, die manchmal auch als GenAI bezeichnet wird, geht über das menschlich Mögliche hinaus. Sie verwendet verschiedene KI- und maschinelle Lern-Algorithmen. Damit liefert sie sofortige Ergebnisse, sobald sie zu etwas aufgefordert wird. Mitarbeiter können mit generativen KI-Tools ihre Arbeit beschleunigen und wertvolle Zeit sparen, die sie sonst für Aufgaben wie das Verfassen von Meeting-Zusammenfassungen, das Finden von Bildern oder die Überwindung von Schreibblockaden aufwenden müssten.
Generative KI-Lösungen können für den Endbenutzer von unschätzbarem Wert sein, da sie Zeit freiwerden lassen, in der man sich auf sinnvollere Arbeit konzentrieren kann. Bevor Sie sich jedoch für die KI-Tools entscheiden, die Sie in Ihre Arbeitsabläufe integrieren möchten, ist es wichtig, einige Dinge zu berücksichtigen.
Zusätzlich zu diesen Fragen sollten Sie herauszufinden, wie ein Anbieter mit KI-Sicherheit umgeht und welche Datenschutzmaßnahmen er für die Implementierung und den Einsatz generativer KI ergreift. Wir empfehlen Unternehmen und ihren Endbenutzern außerdem, herauszufinden, wie die Daten für die die KI-Tools gesammelt und verwendet werden, die sie einführen möchten.
Zunächst ist es wichtig, den Unterschied zwischen KI-Safety und KI-Security zu kennen. KI-Safety und -Security sind grundlegende, aber unterschiedliche Aspekte des Einsatzes und Schutzes von KI-Systemen. Dabei gilt:
Um einige der Sicherheitsherausforderungen zu bewältigen, die bei KI-Integrationen auftreten (konkret der effektive Schutz von KI-Modellen, Datensätzen und Trainingsumgebungen), gibt es eine Reihe von neuen Richtlinien, Standards und Normen von angesehenen Institutionen wie dem National Institute of Standards and Technology (NIST), dem National Cyber Security Centre (NCSC) sowie von der International Organization for Standardization (ISO) in Zusammenarbeit mit der International Electrotechnical Commission (IEC). Unser Ansatz für KI-Sicherheit orientiert sich an diesen Branchenstandards und führenden Praktiken und ist darauf ausgelegt, das Vertrauen unserer Benutzer zu wahren, indem wir uns auf die Abwehr neuer Bedrohungen konzentrieren.
Unser Engagement für KI-Sicherheit erstreckt sich auch über unseren gesamten Sicheren Software-Entwicklungslebenszyklus (Secure Software Development Lifecycle, SDLC) und umfasst sicheres Lieferkettenmanagement, Modelltraining, sicheres Design, sichere Entwicklung, sicheren Betrieb sowie Mitarbeiterschulungen. Wir beziehen KI-Überlegungen in unsere GRC-Richtlinien (Governance, Risk and Compliance) und unser Risiko-Framework ein und beziehen auch Sicherheitstests und -forschung ein, die von unserem Security Assurance-Team durchgeführt werden.
Unser Ansatz zur KI-Sicherheit beginnt mit den Modellen und Daten, die wir unseren Diensten zugrunde legen. Bei von Zoom gehosteten Modellen validieren und verwalten wir unsere Trainingsdaten, und bei der Auswahl von Drittanbietern bewerten wir deren Sicherheitsverfahren, um zu gewährleisten, dass sie mit unseren Zielen übereinstimmen. Unsere Evaluierungen umfassen das Testen der Modelle anhand von Standardsicherheitskennzahlen, um sie auf häufige Probleme zu prüfen, die beim Modelltraining auftreten können.
Kontoinhaber und Administratoren verfügen über Möglichkeiten, die Verfügbarkeit von KI-Funktionen für ihre Konten festzulegen, einschließlich auf Individual- und Gruppenebene. Zu diesen Optionen gehört, wo angebracht, Ergebnisse durch Menschen überprüfen zu lassen, bevor sie ein breites Publikum sieht. Wenn Sie In-Meeting-Funktionen in Zoom Workplace (unserer offenen Kollaborationsplattform mit AI Companion) verwenden, werden Sie außerdem durch das funkelnde Symbol darüber informiert, dass KI aktiviert ist und verwendet wird. So sorgen wir gegenüber Kunden und Teilnehmern für zusätzliche Transparenz.
Im Folgenden stellen wir drei verschiedene Wege vor, auf denen wir die KI-Sicherheit bei Zoom gewährleisten:
Bei Zoom verfolgen wir einen ganzheitlichen KI-Ansatz, was bedeutet, dass wir für jede Aufgabe das für sie am besten geeignete große Sprachmodell nutzen. Dazu gehören auch KI-Modelle von Drittanbietern, mit denen unsere Kunden bereits vertraut sind. Kunden können auswählen, welche Funktionen sie verwenden möchten. Außerdem können sie bei bestimmten Funktionen festlegen, ob sie nur von Zoom gehostete Modelle verwenden möchten. Dies gibt Administratoren mehr Kontrolle darüber, was in ihrem Unternehmen genutzt werden kann.
Im Einklang mit unserem Engagement für verantwortungsvolle KI verwendet Zoom keine Audio-, Video-, Chat- oder Bildschirmfreigabedaten, Anhänge oder andere Kommunikationsdaten, etwa aus Kundeninhalten (z. B. Abstimmungsergebnisse, Whiteboards und Reaktionen), um seine KI-Modelle oder solche von Drittanbietern zu trainieren. Weitere Informationen darüber, wie Zoom AI Companion mit Kundendaten umgeht, finden Sie in unserem Support-Center.
Dieser Artikel zur KI-Sicherheit kratzt nur an der Oberfläche eines komplexen Themas. In den kommenden Monaten werden wir genauer beschreiben, wie wir uns in der weltweiten KI-Wende um KI-Sicherheit bemühen. Wir glauben, dass KI unglaubliche Chancen birgt, unsere Arbeitsweise zu verbessern, und dass dies erst der Anfang ist. Wir veröffentlichen kontinuierlich neue Funktionen für AI Companion und Zoom Workplace. Sie können versichert sein, dass die KI-Sicherheit in unseren Entwicklungsprozessen oberste Priorität hat.
Wenn Sie mehr über den Ansatz von Zoom in Bezug auf Datenschutz und Sicherheit erfahren möchten, nehmen Sie am 26. September 2024 an unserem Webinar mit dem Titel „Zoom's Approach to AI Privacy and Security“ (Zooms Ansatz bei KI-Datenschutz und -Sicherheit) teil.