Zoom CTO の深掘り: AI に対するフェデレーテッド アプローチで、パフォーマンス、品質、価格を最大化
Zoom の CTO を務める Xuedong Huang が、AI に対する Zoom のフェデレーテッド アプローチと、高品質のパフォーマンスを低コストで提供する方法について語ります。
この新しいブログシリーズでは、生成 AI を安全に導入する方法と理由、そしてお客様のために安全でセキュアな AI 環境を構築するために Zoom が行っている取り組みについてご紹介します。
更新日 January 21, 2025
公開日 September 16, 2024
Michael Adams は、Zoom の最高情報セキュリティ責任者として、セキュリティとリーダーシップにおける約 30 年の経験があります。Michael は 2020 年 8 月に Zoom に入社し、COO と CISO の主席顧問を務めながら Zoom のインサイダー リスク、グローバル インテリジェンス、運用保証、セキュリティ法務プログラムを構築しました。米海軍兵学校を卒業してエンジニアとしてキャリアを開始した Michael は、これまでアメリカ統合参謀本部議長 2 人のアドバイザーや、数多くの有名上場企業と非上場企業、米国政府の上級官僚の顧問を務めました。また、Palantir のエグゼクティブや、大手国際法律事務所のパートナーとして成功を収めました。Michael と妻、2 人の子ども、愛犬のチェサピーク ベイ レトリーバーは、ノース カロライナ州シャーロットの自宅でコミュニティ活動に積極的に関わりながら、長年の筋金入りボルチモア オリオールズ ファンとして過ごしています。
人工知能が主流になり、テクノロジーによる効率化を新たな高みへと引き上げています。AI のメリットはほぼ無限のように感じられ、AI で何ができるかを私たちが再考する余地はどこまでも広がっています。
新しいアイデアを夢見ることは楽しいものですが、新しい AI ソリューションの導入には、それを実現するデータの保護と安全性に対する強いコミットメントが必要です。この新しい Zoom ブログシリーズでは、生成 AI を安全に導入する方法と理由、そしてお客様のために安全でセキュアな AI 環境を構築するために Zoom が行っている取り組みについてご紹介します。
AI はさまざまな目的に活用することができ、AI モデルへの複数の入力と出力により、生成 AI は画像、単語、音声、ビデオ、データなどの新しいコンテンツを生成するツールとなります。生成 AI は人間にできることの限界を超え、さまざまな AI および機械学習アルゴリズムを使用して、プロンプトに対する回答を即座に提供します。これにより、人間はミーティング要約の作成、画像の調達、コピーライティング支援による執筆の行き詰りの克服などのタスクに生成 AI ツールを使用して、作業を加速し、貴重な時間を節約できます。
生成 AI ソリューションはエンドユーザーにとって大きな価値があり、より有意義な仕事に集中する時間を確保できます。ただし、ワークフローに導入する AI ツールを選択する前に、いくつかの点を考慮することが重要です。
上記の質問に加えて、ベンダーが AI の安全性とセキュリティをどのように扱っているか、および生成 AI の導入と使用に関するプライバシー保護対策を調査することが重要です。また、組織とそのエンドユーザーの両方が、導入を希望している AI ツールのデータの収集および使用方法を確認することが推奨されます。
まず、AI の安全性とセキュリティの比較について把握することが重要です。AI システムの展開と保護の観点から、AI の安全性とセキュリティは、基盤となる要素であると同時に明確な違いがあります。特に、以下の違いを認識する必要があります。
AI 連携によって表面化する一部のセキュリティ課題(具体的には、AI モデル、データセット、トレーニング環境を保護する必要性)を解決するために、アメリカ国立標準技術研究所(NIST)、イギリス国家サイバー セキュリティ センター(NCSC)、国際標準化機構(ISO) / 国際電気標準会議(IEC)などの信頼ある機関によって多くの新しいガイドライン、標準、フレームワークが策定されています。当社の AI セキュリティへのアプローチは、これらの業界標準と主要な慣行に準拠しており、新たな脅威の軽減に重点を置くことで、ユーザーの信頼と信用を維持するように設計されています。
AI セキュリティに対する Zoom の取り組みは、安全なサプライ チェーン管理、モデルのトレーニング、安全な設計、安全な開発、安全な運用、従業員のトレーニングにわたる、Zoom のセキュア開発ライフサイクル(ZSDLC)全体にも統合されています。AI に関する検討事項を当社の GRC(ガバナンス、リスク、コンプライアンス)ポリシーとリスク フレームワークに組み込んでいるほか、当社のセキュリティ保証チームが実施するセキュリティ テストと調査も含まれています。
AI の安全性に対する当社のアプローチは、サービスの構築に使用するモデルとデータから始まります。Zoom ホスト型モデルについては、トレーニング データを検証して管理し、サードパーティ ベンダーを選択する場合には、その安全手順を評価し、Zoom のミッションに即していることを確認します。当社の評価には標準的な安全性指標に照らしたモデルのテストが含まれ、モデルのトレーニングを通じて発生する可能性のある一般的な問題を検証しています。
アカウント オーナーと管理者は、展開オプションを提供するユーザーおよびグループレベルの制御など、アカウントで利用可能な AI 機能を管理できます。これらのオプションには、必要に応じて、出力をより広範に共有する前に人の手でレビューできるようにすることが含まれます。さらに、Zoom Workplace(AI Companion 搭載のオープン コラボレーション プラットフォーム)内のミーティング内機能を使用する場合、キラキラ アイコンによって AI が有効になっていて使用中であることが示され、お客様と参加者に透明性が提供されます。
AI のセキュリティと安全性に対する Zoom のアプローチ方法は以下の 3 つです。
Zoom では、AI に対するフェデレーテッド アプローチを採用しており、お客様がすでに慣れ親しんでいるサードパーティ製 AI モデルなど、特定のタスクに最適な大規模言語モデルを適用しています。お客様は、使用する機能と、一部の機能で Zoom ホスト型モデルのみを使用するかどうかを選択できます。これにより、管理者は組織内で利用可能な機能をより詳細に制御できるようになります。
責任ある AI へのコミットメントに従って、Zoom は、お客様のオーディオ、ビデオ、チャット、画面共有、添付ファイル、その他のコミュニケーション(例: 投票結果、ホワイトボード、リアクションなどのお客様コンテンツ)を Zoom またはサードパーティ製 AI モデルのトレーニングに使用することはありません。Zoom AI Companion によるお客様データの取り扱いについて詳しくは、Zoom のサポートページをご覧ください。
この初回の内容では AI の安全性とセキュリティについて表面をさらった程度になりますが、今後数か月以内に、世界が AI に移行する中で私たちが尽くす最大限の努力について詳細を共有したいと思います。AI は私たちの働き方を改善するための優れた手段であると Zoom は考えており、それはまだ始まったばかりにすぎません。AI Companion と Zoom Workplace の新機能のリリースを継続していく中で、AI の安全性とセキュリティは当社の開発プロセスの最前線にあります。どうぞご安心ください。