자세히 보기

Jason Martin
Contributor

“자율 AI 에이전트는 자동 보안 리스크” 에이전틱 AI를 위한 보안이 시급한 이유

오피니언
2025.07.215분

AI 에이전트의 속도는 기존 보안 체계가 따라가기에는 너무 빠르다. 아무런 대응 없이 방치하면, 공격이 시작되기도 전에 시스템이 완전히 무너질 수 있다.

Cyber security expert working on encryption and IT security in a governmental agency. Woman engaging on cyber operations, network security and data protection for hybrid war. Camera B.
Credit: DC Studio / Shutterstock

사이버 보안 구역에 새로운 변수로 떠오른 존재가 있다. 바로 AI 에이전트로, 길가의 모든 ‘틈새’를 빠짐없이 찾아낸다.

인간의 개입 없이 스스로 작동하는 AI 에이전트의 잠재력에 대한 보도는 이미 쏟아지고 있지만, 핵심은 놓치고 있다. 포천의 보도에 따르면, AI 기반 코드 편집기 커서(Cursor)의 고객 지원 AI는 ‘독단적 행동’을 하며 사용자 해지를 유도했고, 에어캐나다의 AI 에이전트는 ‘존재하지 않는 환불 정책’을 안내했다.

가트너는 오는 2028년까지 전체 기업 보안 침해 사고 중 25%가 AI 에이전트 남용으로 발생할 것으로 내다봤다. 보안 업계의 선구자이자 투자자인 케빈 만디아는 최근 “AI 에이전트가 개입한 사이버 공격이 1년 내에 현실이 될 것”이라고 경고했다.

AI와 AI 에이전트의 장점은 분명하다. 인간의 일을 보조하거나 대체하면서 업무 효율성을 극대화할 수 있다. 단점이라면 공격 표면이 상당히 증가한다는 것으로, 공격자에게 이런 저런 공격을 시도할 여지를 더 많이 제공한다. AI 에이전트가 기업 데이터를 바탕으로 의사결정을 내리는 구조인 만큼, 공격자는 이를 악용해 직원 계정을 탈취하거나 기업 정보를 유출하고, 시스템을 마비시키거나 장악할 수 있다. 실제로 지난 해 퍼미소 시큐리티(Permiso Security)의 조사에서는 사이버 범죄자가 탈취한 클라우드 계정으로 성인용 AI 챗봇 서비스를 운영하고 되팔았다는 정황이 드러나기도 했다.

보안 우려가 커지는 한편으로 기업 CEO는 AI를 도입해야 한다는 압박에 시달리고 있다. 맥킨지는 “뒤처지지 않으려면 지금 대담하게 투자하라”고 조언했고, 세일즈포스는 올해 신규 엔지니어 채용 없이 ‘디지털 노동 혁명’에 집중하겠다고 선언했다.

이처럼 AI에 대한 기대가 커지는 상황에서, 유일하게 경고등을 켜고 있는 이는 아마 보안 책임자일 가능성이 높다.

속수무책에 사면초가” AI 에이전트 보안

그렇다면, CEO와 CIO는 어떻게 대응해야 할까? 희소식이 있다면, 기업은 과거에도 클라우드 같은 신기술을 처음 도입할 때 마찬가지 우려가 있었지만, 기술 도입과 함께 적절하게 보안을 강화해 왔다. AI 에이전트 역시 마찬가지다. 단, 지금까지보다 훨씬 더 빠르게 대응해야 한다. AI는 다른 어떤 기술보다 빠르고 잔혹하게 보안의 허점을 드러낼 수 있기 때문이다.

나쁜 소식은 대부분 기업이 아직 어떤 종류의 사이버 공격에도 스스로 제대로 보호한 적이 없다는 것이다. 시스코가 8,000명 이상의 기업 임원을 대상으로 조사한 ‘2025 사이버보안 준비도’ 조사에 따르면, 사이버 공격에 대한 대비 수준이 ‘성숙 단계’에 도달한 글로벌 기업은 4%에 불과하다. 70%는 ‘초기 단계’나 ‘형성 단계’에 머물러 있다. 조사 대상 중 71%는 향후 12~24개월 내에 자사 비즈니스가 사이버 공격으로 큰 피해를 입을 것으로 예상했다. 보고서는 “대부분 기업이 여전히 이런 위협을 막거나 대응할 준비가 돼 있지 않다”고 분석했다.

AI 에이전트로 인한 리스크가 빠르게 커질 수밖에 없는 이유는 AI 자체의 변화 속도 때문이다. 한 사람이 직원 계정을 훔치는 것이나 해커가 50대의 시스템을 조정하는 것과는 차원이 다르다. 곧 5만 대의 AI 에이전트가 동시에 작동하게 될 것이다. 이들은 인간보다 훨씬 빠르게 움직이고, 학습하며, 방향을 바꾼다. 인간이 데이터와 시스템을 통제하고 있다고 믿는 감각은 머지않아 허상으로 드러날 수 있다.

보안의 기본으로 돌아가야

기업 보안의 다음 과제는 인간에 의한 위협에 대응하는 것에 그치지 않는다. 기하급수적으로 늘어나는 자율 AI 에이전트의 세계까지 보호해야 한다. CEO와 CIO는 AI 에이전트를 배포하기 전에 보안의 기본을 다시 한 번 강화해야 한다. 현재 시점에서 점검해야 할 주요 위험 영역은 다음과 같다.

  • 직원. 버라이즌의 조사에 따르면, 기업 소속 직원의 최소 15%가 회사 기기에서 생성형 AI 플랫폼을 ‘일상적으로’ 사용한다. 이로 인해 데이터 유출과 보안 취약점이 크게 증가할 수 있다. 회사 내에서 누가 어떤 플랫폼을 사용하는지, 어떤 통제가 필요한지 명확히 파악해야 한다.
  • 에이전트의 허용 범위. 이미 AI 에이전트를 배포한 상태라면, 이들이 어떤 동작을 할 수 있고 어떤 데이터에 접근할 수 있는지 점검해야 한다. 많은 AI 에이전트가 초기 설정에서 운영 속도나 단순화를 이유로 과도하게 넓은 허용 범위를 갖는다. 시간이 지나면 이렇게 허용된 에이전트가 보안 리스크로 이어질 수 있다. 실제 업무 범위를 넘어 민감한 작업을 수행하거나 핵심 자원에 접근할 수 있기 때문이다.
  • 데이터. 어떤 데이터가 어디로 업로드되고 있는가? 데이터 거버넌스는 얼마나 잘 정비되어 있는가? 즉, 데이터의 출처와 생성 시점, 변경 여부 및 주체를 명확하게 파악하고 있는가? AI의 압독적인 데이터 탐색 능력을 고려하면, 에이전틱 AI는 허술한 데이터 거버넌스를 바로 악용할 것이다.
  • 솔루션 업체. 솔루션 업체는 AI 에이전트를 어떻게 사용하고 보호하는가? 솔루션 업체는 공급망 어디에 위치해 있는가? 예를 들어, 부품이 부족할 때 자동으로 주문하는 역할을 AI 에이전트가 맡는 경우가 있다. 이런 에이전트의 역할을 명확히 정의하고 이상 행동을 식별할 수 있도록 해야 한다. 예컨대, 부품 주문 에이전트가 공급업체 결제 정보를 요구한다면, 이는 의심 신호다. 솔루션 업체에 감사와 측정 지표를 요구해야 한다.

결국 AI 에이전트도 직원처럼 관리해야 한다. 인간과 비인간 ID 모두에 대한 완전한 가시성이 필요하며, AI 에이전트의 인터랙션을 원점까지 추적해 할 수 있어야 한다. 또한, 클라우드, SaaS, 하이브리드 인프라 전반에 걸쳐 에이전트에 의한 비정상적 행동이나 승인되지 않은 위험한 활동을 빠르게 식별할 수 있어야 한다. 에이전트의 허용 범위, 권한, 인터랙션을 지속적으로 감사하면, 위험 노출을 최소화하는 더 나은 정책을 시행할 수 있다.

보안에 기반한 자신감 있는 투자

보안 과제가 산적해 있지만, AI 에이전트는 분명히 미래의 핵심 기술이다. 여기서는 맥킨지가 강조한 것처럼 속도가 중요하다. 경쟁력을 확보하는 차원을 넘어, 보안 위협보다 한발 앞서기 위해서도 그렇다. 기업이 보안의 기본, 특히 ID 보안을 빠르게 갖출수록 AI 에이전트를 포함한 모든 사이버 공격에 대한 위험도 줄어든다. 기업은 에이전틱 AI를 안전하게 관리할 수 있을 때 신뢰와 자신감을 갖게 된다. 보안은 진전을 가로막는 문턱이 아니라, 기업이 더 빠르게 전진할 수 있도록 도와주는 가드레일이다.
dl-ciokorea@foundryco.com

Jason Martin

Jason Martin is a co-founder and co-CEO of Permiso Security, a leader in identity security, providing advanced solutions to help organizations detect and respond to threats targeting human and non-human identities across cloud environments.