Zoom CTO 심층 분석: AI에 대한 연합 접근 방식으로 성능, 품질, 경제성을 극대화하는 방법
Zoom의 CTO인 Xuedong Huang이 Zoom의 AI에 대한 연합 접근 방식과 더 낮은 비용으로 고품질 성능을 제공하는 방법에 대해 이야기합니다.
새로운 시리즈에서는 생성형 AI를 안전하게 구현하는 방법과 그 이유, 그리고 Zoom이 고객을 위한 안전한 AI 환경을 구축하기 위해 어떤 노력을 기울이고 있는지를 조명합니다.
업데이트 날짜 September 27, 2024
게시 날짜 September 16, 2024
Michael Adams는 Zoom의 최고 정보 보안 책임자로서 30년 가까운 보안 및 리더십 경험을 보유하고 있습니다. 2020년 8월 Zoom에 합류하여 COO 및 CISO의 수석 고문을 역임하면서 기업 내부자 위험, 글로벌 인텔리전스, 운영 보증, 보안 법률 프로그램을 구축했습니다. 미국 해군사관학교를 졸업하고 엔지니어로 경력을 시작했으며 두 명의 합참의장과 수많은 유명 상장 및 비상장 기업, 미국 정부 최고위층의 고문으로 활동하였습니다. Palantir의 임원이자 주요 국제 로펌의 파트너로서 성공을 거두었습니다. 아내와 두 자녀, 레트리버와 함께 노스캐롤라이나 주 샬롯에 거주하고 있으며, 지역 사회의 활동적인 구성원이자 볼티모어 오리올스의 오랜 팬입니다.
인공 지능이 주류 기술의 대열에 합류함에 따라 기술을 통해 새로운 차원의 효율성을 달성할 수 있게 되었습니다. 덕분에 AI가 가져다주는 이점은 무한에 가까운 것으로 여겨지고 있으며, 사람들은 상상력을 자유롭게 발휘하여 가능성을 새롭게 구상해 볼 기회를 얻었습니다.
그러나 또 다른 멋진 아이디어를 구상하는 것은 즐거운 일이지만, 새로운 AI 솔루션을 구현할 때는 그 기반이 되는 데이터를 보호하고 안전을 지키겠다는 강력한 의지가 수반되어야 합니다. Zoom 블로그에서는 새로운 시리즈를 시작하면서 생성형 AI를 안전하게 구현하는 방법과 그 이유, 그리고 Zoom이 고객을 위한 안전한 AI 환경을 구축하기 위해 어떤 노력을 기울이고 있는지에 대해 설명합니다.
AI는 다양한 용도로 사용될 수 있으며, 생성형 AI는 AI 모델에 다양한 입력과 출력을 적용하여 이미지, 단어, 사운드, 동영상, 데이터 등 새로운 콘텐츠를 생성할 수 있는 도구를 제공합니다. GenAI라고도 하는 생성형 AI는 인간의 한계를 뛰어넘는 능력을 갖췄으며 다양한 AI 및 머신러닝 알고리즘을 사용하여 명령에 대한 즉각적인 결과를 제공합니다. 회의 요약의 초안을 작성하거나, 이미지를 소싱하거나, 글을 쓰다가 막혔을 때 카피라이팅 지원을 통해 문제를 해결하는 등의 작업에 생성형 AI 도구를 사용하면 업무 속도를 높이고 귀중한 시간을 절약할 수 있습니다.
생성형 AI 솔루션은 더 의미 있는 업무에 집중할 수 있는 시간을 확보해 주므로 최종 사용자에게 매우 유용합니다. 하지만 워크플로에 구현할 AI 도구를 선택하기 전에 고려해야 하는 몇 가지가 있습니다.
이러한 질문 외에도 공급업체가 AI의 안전 및 보안을 처리하는 방식과 생성형 AI의 구현 및 사용에 적용되는 개인정보 보호 조치를 알아봐야 합니다. 또한 조직 그리고 최종 사용자는 자신들이 구현하려는 AI 도구를 구동하는 데 데이터가 어떻게 수집되고 사용되는지 살펴보는 것이 좋습니다.
우선, AI 안전이 AI 보안과 어떻게 다른지 파악하는 것이 중요합니다. AI 안전 및 보안은 AI 시스템의 배포와 보호에서 기본적이면서도 뚜렷한 부분이지만, 구체적으로 살펴보면 다음과 같습니다.
AI 통합으로 인해 발생하는 일부 보안 문제(즉, AI 모델, 데이터 세트 및 트레이닝 환경을 보호해야 할 필요성)를 해결하기 위해, 미국 국립표준기술연구소(NIST), 국가사이버보안센터(NCSC), 국제표준화기구(ISO) 및 국제전기기술위원회(IEC) 등 권위 있는 기관에서 수많은 새로운 지침, 표준 및 프레임워크를 발표하고 있습니다. AI 보안에 대한 Zoom의 접근 방식은 이러한 업계 표준 및 선도적인 관행에 부합하며, 새로운 위협을 완화하는 데 집중하여 사용자의 신뢰와 믿음을 지킬 수 있도록 설계되었습니다.
AI 보안에 대한 Zoom의 노력은 안전한 공급망 관리, 모델 트레이닝, 안전한 설계, 안전한 개발, 안전한 운영, 직원 교육을 아우르는 전체 Zoom 보안 개발 수명 주기(ZSDLC)에도 적용됩니다. Zoom은 GRC(거버넌스, 위험 및 규정 준수) 정책과 위험 프레임워크에 AI 고려 사항을 통합하고 있으며, 보안 보증 팀이 수행하는 보안 테스트 및 연구도 포함시키고 있습니다.
AI 안전에 대한 Zoom의 접근 방식은 Zoom의 서비스 구축에 사용되는 모델과 데이터에서 시작됩니다. Zoom이 호스팅하는 모델의 경우 트레이닝 데이터를 자체적으로 검증하고 관리하고 있으며, 타사 공급업체를 선택할 때는 해당 공급업체의 안전 절차를 평가하여 당사의 사명에 부합하는지 확인합니다. 이러한 평가에는 표준 안전 메트릭에 대한 모델 테스트가 포함되어 모델 트레이닝 과정에서 발생할 수 있는 일반적인 문제를 검증합니다.
계정 소유자와 관리자는 배포 옵션을 제공하는 사용자 및 그룹 수준의 제어를 비롯하여 계정에서 AI 기능의 사용 여부를 관리할 수 있는 제어 권한을 갖습니다. 이러한 옵션에는 결과물을 더 널리 공유하기 전에 사람이 검토할 수 있도록 하는 기능이 포함됩니다(그러한 작업이 적절한 경우 사용). 또한 Zoom Workplace(AI Companion이 포함된 개방형 협업 플랫폼) 내에서 회의 중 기능을 사용할 때, 반짝이는 아이콘이 AI가 활성화되어 사용 중임을 알려주므로 고객과 참가자에게 투명성을 제공할 수 있습니다.
Zoom에서 AI의 보안과 안전에 접근하는 세 가지 방법은 다음과 같습니다.
Zoom은 AI에 대해 통합적 접근 방식을 취하여, 고객이 이미 익숙한 타사 AI 모델을 비롯해 특정 작업에 가장 적합한 대규모 언어 모델을 적용합니다. 고객은 어떤 기능을 사용할지, 일부 기능에만 Zoom이 호스팅하는 모델을 사용할지 여부를 선택할 수 있습니다. 이를 통해 관리자는 조직 내에서 사용할 수 있는 기능을 더 강력하게 제어할 수 있습니다.
책임 있는 AI에 대한 Zoom의 약속에 따라, Zoom은 사용자의 오디오, 비디오, 채팅, 화면 공유, 첨부 파일 또는 고객 콘텐츠(예: 설문조사 결과, 화이트보드, 반응 등)와 같은 기타 모든 커뮤니케이션 데이터를 Zoom 또는 타사 인공 지능 모델의 트레이닝을 목적으로 활용하지 않습니다. Zoom AI Companion이 사용자 데이터를 처리하는 방식에 관한 자세한 내용을 보려면 지원 페이지를 참조하세요.
AI 안전과 보안에 대한 이 첫 번째 논의는 겉만 살짝 훑는 시작 단계에 불과합니다. 앞으로 몇 달 동안 Zoom이 전 세계적인 AI로의 전환 국면에서 어떤 방식으로 최대한의 노력을 기울이고 있는지 자세히 공유할 예정입니다. Zoom은 AI가 업무 방식을 개선할 수 있는 놀라운 방법이며, 이제 막 시작 단계라고 생각합니다. Zoom은 AI Companion과 Zoom Workplace의 새로운 기능을 계속 출시하면서 AI 안전과 보안을 개발 프로세스의 최우선 사항으로 삼고 있으니 안심하셔도 됩니다.
개인정보 보호 및 보안에 대한 Zoom의 접근 방식에 대해 자세히 알아보려면 2024년 9월 26일에 예정된 AI 개인정보 보호 및 보안에 대한 Zoom의 접근 방식 웨비나에 참석해 보세요.