Безопасность и конфиденциальность AI Companion ИИ Trust & Safety

Основы безопасности и защиты ИИ

Наша новая серия статей освещает, как безопасно внедрить генеративный ИИ и почему это стоит сделать, а также что делает Zoom для создания безопасной и защищенной ИИ-среды для клиентов. 

3 мин. на чтение

Обновлено: September 27, 2024

Опубликовано: September 16, 2024

Блог CISO об ИИ
Майкл Адамс (Michael Adams)
Майкл Адамс (Michael Adams)
Директор по вопросам информационной безопасности

Майкл Адамс занял должность директора по вопросам информационной безопасности в Zoom, имея за плечами почти 30-летний опыт в сфере безопасности и руководства. Майкл присоединился к Zoom в августе 2020 года и работал в качестве главного юрисконсульта COO и CISO, разрабатывая в компании программы глобальной аналитики, операционной эффективности, правового обеспечения безопасности, а также программы по борьбе с инсайдерскими угрозами. Выпускник Военно-морской академии США, Майкл, начавший свою карьеру в качестве инженера, ранее был советником двух председателей Объединенного комитета начальников штабов, работал во многих выдающихся публичных и частных компаниях и занимал должности в высших органах власти США. Он добился успеха в качестве исполнительного директора в компании Palantir и партнера крупной международной юридической фирмы. Майкл с женой, двумя детьми и чесапик-бей-ретривером живут в городе Шарлотт, штат Северная Каролина. Майкл с семьей принимают активное участие в жизни сообщества и являются давними и ярыми поклонниками команды «Балтимор Ориолс».

Искусственный интеллект — это современная тенденция. Он помогает нам достичь новых высот эффективности с помощью технологий. Таким образом, преимущества ИИ кажутся практически безграничными, и это дает нам простор для воображения, чтобы переосмыслить рамки возможного. 

Безусловно, придумывать новые великие идеи весьма увлекательно, но для внедрения нового ИИ-решения нужно всецело обеспечивать безопасность и защиту данных, на которых оно базируется. Мы начинаем новую серию статей блога Zoom, в которых будем обсуждать, как безопасно внедрить генеративный ИИ и почему это стоит сделать, а также что делает Zoom для создания безопасной и защищенной ИИ-среды для клиентов.

Что такое генеративный ИИ и как он работает?

ИИ можно использовать для множества различных целей, и генеративный ИИ предоставляет инструменты для создания нового содержимого, в том числе изображений, текста, видео и данных, с помощью множества вводных запросов и выводов в моделях ИИ. Генеративный ИИ, который также иногда называют GenAI, выходит за рамки человеческих возможностей: он использует различные алгоритмы ИИ и машинного обучения, предоставляя мгновенные результаты по запросу. Человек может ускорить свою работу и сэкономить ценное время, используя инструменты генеративного ИИ, которые могут, среди прочего, создать черновики сводок конференции, найти изображения или даже составить текст, помогая преодолеть творческий кризис. 

Конечный пользователь по достоинству оценит преимущества решений на базе генеративного ИИ, поскольку у него появится больше времени для того, чтобы сосредоточиться на более значимой работе. Однако при выборе инструментов на базе ИИ, которые вы будете внедрять в свои рабочие процессы, важно учитывать несколько моментов.

  1. Определите и изложите проблемы, которые нужно решить. Пытаетесь улучшить обслуживание клиентов? Хотите упростить повторяющиеся задачи? Хотите оценить новые тенденции? Нужно быстро переводить и локализовать содержимое? 
  2. Разработайте график. Сколько времени вам понадобится на то, чтобы изучить, оценить и внедрить варианты ИИ? Для каких команд в вашей организации требуется одобрение? Чем чревато слишком медленное внедрение?
  3. Определите важные для вас аспекты. У каждого инструмента на базе ИИ есть свои преимущества и недостатки, и есть ряд вопросов, которые следует задать тому или иному рассматриваемому поставщику. Какие функции включены в их сервисы и соответствуют ли они вашим целям?

Помимо этих вопросов, важно изучить, как поставщик обеспечивает безопасность и защиту ИИ, а также какие меры предпринимает для защиты конфиденциальности в процессе внедрения и использования генеративного ИИ. Мы также рекомендуем организациям и их конечным пользователям выяснять, как происходит сбор и использование данных для работы ИИ, который они собираются внедрить.

Чем отличаются понятия «безопасность ИИ» и «защита ИИ»?

Для начала следует разобраться в том, чем безопасность ИИ отличается от защиты ИИ. Безопасность и защита ИИ — это фундаментальные, но разные аспекты развертывания систем ИИ и ограждения их от опасностей.

  • Защита ИИ направлена на обеспечение конфиденциальности, целостности и доступности данных, используемых в моделях и системах ИИ.
  • Безопасность ИИ охватывает более широкие аспекты, связанные с устойчивостью и надежностью, этическими соображениями, долгосрочными общественными, экономическими и экологическими последствиями, а также влиянием на права человека и ценности.

Защита ИИ в Zoom

Защита ИИ в Zoom

Для устранения некоторых проблем в системе безопасности, сопряженных с интеграциями ИИ (а именно необходимости защиты моделей ИИ, наборов данных и сред обучения), существует ряд передовых рекомендаций, стандартов и систем, разработанных уважаемыми учреждениями, такими как Национальный институт стандартов и технологий (NIST), Национальный центр кибербезопасности (NCSC) и совместно Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC). Наш подход к защите ИИ соответствует этим отраслевым стандартам и передовой практике и помогает поддерживать доверие и уверенность наших пользователей за счет акцента на уменьшении возникающих угроз. 

Наше стремление к защите ИИ также красной нитью проходит через весь цикл безопасной разработки Zoom (ZSDLC), охватывая безопасное управление цепочкой поставок, обучение моделей, безопасные проектирование и разработку, безопасную эксплуатацию и обучение сотрудников. Мы внедряем аспекты ИИ в наши политики в отношении управления рисками и соблюдения нормативно-правовых требований и систему управления рисками, а также включаем тестирование систем безопасности и связанные с ними исследования, которые проводит наша команда по контролю безопасности.

Как Zoom подходит к безопасности ИИ

Наш подход к безопасности ИИ начинается с моделей и данных, используемых для создания наших услуг. Мы проверяем наши данные, на которых обучаем модели, размещенные в Zoom, и управляем ими, а в случае со сторонними поставщиками мы оцениваем соответствие их мер безопасности нашей миссии. В рамках этой оценки мы тестируем модели по стандартным показателям безопасности на отсутствие распространенных проблем, которые могут возникнуть при обучении моделей. 

Владельцы и администраторы учетных записей с помощью специальных элементов управления могут определять, кому в их учетной записи будут доступны функции ИИ, в том числе на уровне пользователя и группы, что расширяет возможности развертывания. В соответствующих случаях эти элементы управления позволяют предоставлять пользователям возможность проверять получаемые результаты, прежде чем представить их широкой аудитории. Кроме того, при использовании функций на конференции в Zoom Workplace (нашей открытой платформе для коллективной работы с функцией AI Companion) отображается значок с блестками, свидетельствующий о том, что функция ИИ включена и используется. Таким образом мы обеспечиваем прозрачность для клиентов и участников. 

Далее мы опишем три подхода компании Zoom к безопасности и защите ИИ.

  1. Защита продуктов и услуг Zoom на базе генеративного ИИ, например Zoom AI Companion и помощник эксперта Zoom Contact Center, а также базовых моделей, поддерживающих эти решения.
  2. Использование ИИ в рамках нашей программы и методов защиты для предвосхищения возникающих угроз.
  3. Обеспечение безопасного использования ИИ в Zoom.

Управление безопасностью и защитой с помощью интегрированного подхода к ИИ

Интегрированный подход Zoom к ИИ

Компания Zoom применяет интегрированный подход к ИИ, подразумевающий использование лучших больших языковых моделей для конкретной задачи, в том числе уже знакомых клиентам сторонних ИИ-моделей. Клиенты могут выбирать, какие функции использовать и нужно ли применять только модели, размещенные компанией Zoom (такая возможность доступна для некоторых функций). Таким образом у администраторов появляется больше возможностей для контроля доступа в рамках организации.

В соответствии с нашим обязательством в отношении ответственного применения ИИ Zoom не использует аудио, видео, чаты, демонстрации экрана, вложения или другое содержимое клиента, используемое для коммуникации (например, результаты опросов, доски и реакции), для обучения моделей искусственного интеллекта Zoom или сторонних поставщиков услуг. Дополнительную информацию о том, как Zoom AI Companion обрабатывает данные клиентов см. на нашей странице поддержки.

AI Companion, безопасность, защита, будущее

Несмотря на то что в этом начальном обсуждении безопасности и защиты ИИ мы лишь вскользь касаемся темы, в ближайшие месяцы мы расскажем подробнее о том, какие наиболее эффективные меры мы предпринимаем в рамках глобального перехода на ИИ. Мы считаем, что ИИ — это невероятный способ улучшить рабочий процесс и это лишь начало. Продолжая выпускать новые функции для AI Companion и Zoom Workplace, мы гарантируем, что во главе угла нашего процесса разработки стоят вопросы безопасности и защиты ИИ. 

Чтобы узнать больше о подходе Zoom к конфиденциальности и безопасности, присоединяйтесь к нашему предстоящему вебинару на тему Подход Zoom к конфиденциальности и безопасности ИИ, который пройдет 26 сентября 2024 г. 

Наши клиенты нас любят

Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox
Okta
Nasdaq
Rakuten
Logitech
Western Union
Autodesk
Dropbox

Zoom — единая платформа для совместной работы