安全和隐私 AI Companion AI Trust & Safety

AI 安全与保障简介

我们的一系列新内容重点介绍如何以及为什么应该安全地实施生成式 AI,以及 Zoom 正在采取哪些措施为客户创造安全可靠的 AI 环境。 

3 阅读分钟数

更新日期 September 27, 2024

发布日期 September 16, 2024

CISO AI 博客

人工智能已经是大势所趋,它通过技术帮助我们使工作效率达到新的高度。这使 AI 的优势看起来几乎具有无限的可能性,它为我们的想象力提供了足够的驰聘空间,去重新构想未来的可能性。 

尽管构想下一个伟大创意充满乐趣,但实施新的 AI 解决方案需要对推动创意的数据安全和保障做出坚定的承诺。我们将在 Zoom 博客上启动一系列新内容,讨论如何以及为什么应该安全地实施生成式 AI,以及 Zoom 正在采取哪些措施为客户创造安全可靠的 AI 环境。

什么是生成式 AI 及其运作方式?

AI 可以服务于许多不同的目的,生成式 AI 可为您提供工具,通过对 AI 模型的多次输入和输出来生成新内容,包括图像、文字、声音、视频和数据。有时候,生成式 AI 被称为 GenAI,它超越了人类的能力范围,使用各种 AI 和机器学习算法在得到提示时提供即时结果。作为回报,人们可以通过生成式 AI 工具加快工作速度,节省宝贵时间,用于起草会议摘要、查找图片来源或在文案辅助下解决写作障碍等任务。 

生成式 AI 解决方案对于最终用户非常有用,可以让其腾出时间专注于更有意义的工作。但是,选择要在工作流程中实施的 AI 工具之前,对一些事项进行考虑至关重要。

  1. 确定并列出您想要解决的问题。您正在努力改善客户服务?简化重复性任务?评估新的趋势?快速翻译和本地化内容? 
  2. 制定时间表。您能够以多快的速度探索、评估和实施您的 AI 方案?您组织中的哪些团队需要签字确认?行动太慢的代价是什么?
  3. 确定对您来说重要的事项。不同 AI 工具具有不同的优点、缺点和问题,需要向您正在评估的供应商询问。他们的服务中包含哪些功能以及这些功能如何与您的目标保持一致?

除了这些问题之外,重要的是研究供应商在实施和使用生成式 AI 时如何处理 AI 安全和保障问题,以及他们采取的隐私措施。我们还建议组织其最终用户探索如何收集和使用数据来支持他们想要实施的 AI 工具。

什么是 AI 安全与 AI 保障?

To begin with, it’s important to know how AI safety compares to AI security. AI safety and security are fundamental yet distinct aspects of the deployment and protection of AI systems, but specifically:

  • AI security is focused on safeguarding the confidentiality, integrity, and availability of data used in AI models and systems.
  • AI safety involves broader considerations related to robustness and reliability, ethical implications, long-term societal, economic, and environmental impacts, and impacts on human rights and values.

AI security at Zoom

Zoom 的 AI 安全

为了克服 AI 集成中出现的一些安全挑战(即需要保护 AI 模型、数据集和训练环境),美国国家标准与技术研究院 (NIST)、国家网络安全中心 (NCSC) 等权威机构以及国际标准化组织 (ISO) 和国际电工委员会 (IEC) 联合推出了许多新兴指南、标准和框架。我们实现的 AI 安全的方式符合这些行业标准和领先实践,并旨在通过专注于减轻新出现的威胁来保持用户的信任和信心。 

我们对 AI 安全的承诺也贯穿于整个 Zoom 安全开发生命周期 (ZSDLC),涵盖安全供应链管理、模型训练、安全设计、安全开发、安全运营和员工培训。我们将 AI 考虑因素纳入我们的 GRC(治理、风险和合规)政策和风险框架中,同时还包括由我们的安全保证团队进行的安全测试和研究。

Zoom 如何实现 AI 安全

我们实现 AI 安全的方式始于我们用来构建服务的模型和数据。对于 Zoom 托管的模型,我们会验证和管理我们的训练数据,在选择第三方供应商时,我们会评估其安全程序,以确保其与我们的使命保持一致。我们的评估包括根据标准安全指标测试模型,以验证模型训练过程中可能出现的常见问题。 

账户所有者和管理员可以控制管理其账户的 AI 功能可用性,包括提供部署选项的用户和群组级别控制。这些选项包括,适当情况下,在进行更广泛地共享之前,允许对输出内容进行人工审查。此外,在使用 Zoom Workplace(包含 AI Companion 功能的开放式协作平台)中的会议内功能时,闪烁图标会通知您 AI 已启用并正在使用中,以便为客户和参会者提供透明度。 

以下是 Zoom 在实现 AI 安全和保障方面采取的三种不同方式:

  1. 保护利用生成式 AI 的 Zoom AI 产品和服务(例如 Zoom AI Companion Zoom Contact Center 专家助理)以及为其提供支持的底层模型。
  2. 在我们的安全计划和实践中利用 AI 来应对不断演变的威胁。
  3. 确保 Zoom 内部使用 AI 的安全。

采用联合 AI 实现方式管理安全和保障

Zoom 的 AI 联合实现方式

在 Zoom,我们采用 AI 联合实现方式,这意味着我们会应用适合特定任务的最佳大语言模型,包括客户已经熟悉的第三方 AI 模型。客户可以选择使用哪些功能,以及是否只想使用 Zoom 托管的模型(仅适用于部分功能)。这可让管理员能够更好地控制组织内的可用功能。

秉承我们打造负责任的 AI 的承诺,Zoom 不会使用任何客户音频、视频、聊天、屏幕共享、附件或其他类似通信的客户内容(如问卷结果、白板和回应)来训练 Zoom 或第三方的人工智能模型。有关 Zoom AI Companion 如何处理客户数据的更多信息,请访问我们的支持页面

AI Companion、安全、保障和未来

虽然关于 AI 安全和保障的初步讨论才刚刚开始,但在接下来的几个月里,我们将分享更多关于全球向 AI 转变的过程中我们如何最大限度地发挥自己能力的详细信息。我们相信,AI 是一种不可思议的、能够改善我们工作方式的途径,而这仅仅只是开始。随着我们继续针对 AI Companion 和 Zoom Workplace 发布新的功能,请放心,AI 安全和保障肯定会是我们开发过程的重中之重。 

如果您想了解有关 Zoom 实现隐私和安全的方式的更多信息,请参加我们即将于 2024 年 9 月 26 日举行的网络研讨会,主题为“Zoom 实现 AI 隐私和安全的方式”。

我们深受客户青睐

Okta
纳斯达克
Rakuten
Logitech
Western Union
Autodesk
Dropbox
Okta
纳斯达克
Rakuten
Logitech
Western Union
Autodesk
Dropbox

Zoom - 单一平台,连接无碍