데이터 보호 솔루션 전문 업체 오페이크 시스템스(Opaque Systems)가 LLM 환경에서 이용할 수 있는 보안 기능을 22일 공개했다. 새로운 기능은 신뢰할 수 있는 실행 환경 내에서 암호화된 데이터로 머신 러닝 및 AI 모델을 관리할 수 있게 지원한다.
오페이크 시스템스(Opaque Systems)이 대규모 언어 모델(Large Language Model, LLM) 사용할 때 기업 데이터의 기밀성을 보호할 수 있는 기능을 새로 발표했다. 개인정보 보호 기능이 강화된 이번 새로운 기능은 제로 트러스트 데이터 클린룸(Data Clean Rooms, DCR)을 기반으로 하고 있으며 마이크로소프트 애저와 함께 쓸 수 있도록 최적화됐다.
오페이크 시스템스는 22일 공식 보도자료를 통해 “새로운 AI 기능으로 기업은 기본 원시 데이터를 공유하거나 공개하지 않고도 기밀 데이터를 안전하게 분석할 수 있을 것”이라며 “또한 다양한 AI 환경 데이터를 보호하면서, 머신 러닝 및 AI 모델이 신뢰할 수 있는 실행 환경(Trusted Executions Environments, TEEs) 내에서 암호화된 데이터를 사용하도록 지원하며, 권한이 없는 담당자에게 데이터가 노출되는 것을 막아줄 것”이라고 설명했다.
LLM 사용시 발생되는 보안 위협
생성형 AI 알고리즘과 민감한 비즈니스 정보를 함께 쓰면 심각한 보안 문제가 발생될 수 있다는 것은 이미 여러 전문가가 지적했다. 보안 분야 비영리 재단인 OWASP(The Open Web Application Security Project)은 올해 6월 대규모 언어 모델(Large Language Model, LLM) 애플리케이션에서 자주 발견되는 취약점 상위 10가지를 공유하며 기업에서 주의해 사용할 것을 당부했다.
오페이크 시스템스 제품 부문 부사장 제이 하렐(Jay Harel)은 “LLM 제공업체가 사용자가 설정한 쿼리를 살펴볼 수 있을 경우, 보안 및 개인정보 보호에 심각한 문제가 될 수 있다. 내부 코드와 같이 매우 민감한 쿼리에 접근할 가능성이 높아져 해킹 가능성이 급격히 증가하기 때문이다”이라며 “기업 환경에서 LLM 사용을 확대하려면 개인 식별 정보(PII)나 매출 수치와 같은 민감한 내부 데이터의 보호하는 것이 매우 중요하다”라고 설명했다.
하렐은 “조직은 회사 데이터에 대한 모델을 미세 조정하기를 원하지만, 이를 위해서는 LLM 공급업체에 데이터 액세스 권한을 부여하거나 공급업체가 고객 조직 내에 독점 모델을 배포할 수 있도록 권한을 줘야 했다. AI 모델을 학습시킬 때 학습 데이터는 기밀 또는 민감도에 관계없이 계속 LLM 공급업체가 보유할 수 있다는 뜻이다. 이런 상황에서 호스트 시스템에 보안 문제가 생기기라도 하면, 데이터가 유출되거나 잘못된 사람의 손에 들어갈 수 있다”라고 지적했다.
민감한 데이터 보호에 특화된 오페이크 플랫폼
오페이크 시스템스에 따르면, 오페이크 시스템의 고객은 기밀 컴퓨팅 플랫폼 내에서 LLM 모델을 실행함으로써 쿼리와 데이터를 비공개로 유지하고 보호할 수 있다. 또한 데이터는 모델/서비스 제공업체에 노출되거나 승인되지 않은 방식으로 함부로 사용되지 않는다. 오로지 승인된 당사자만 접근할 수 있다는 것이다.
하렐은 “오페이크 시스템스 플랫폼은 개인 정보 보호 기술을 활용하여 LLM을 보호하고, 보안 하드웨어 인클레이브와 암호화 강화의 강력한 조합을 통해 잠재적인 사이버 공격과 데이터 침해로부터 민감한 데이터를 여러 계층으로 보호한다”라며 “오페이크 시스템스 솔루션을 사용하면 생성형 AI 모델이 기밀 가상 머신(Confidential Virtual Machines, CVM) 내부에서 추론을 실행할 수 있으며, 덕분에 조직이 규제 준수 요건을 충족할 수 있는 안전한 챗봇을 만들 수 있다”라고 설명했다.
dl-ciokorea@foundryco.com