자세히 보기

By Kim Jin Cheol

김진철의 How-to-Big Data | 빅데이터의 미래 (9)

지난 서른다섯 번째 글부터는 빅데이터 비즈니스와 기술의 미래를 현재 기술들의 동향과 전망을 가지고 같이 엿보고 있다. 빅데이터 비즈니스와 기술의

인공지능 기술에 대한 우리들의 오해 (1) – 지나친 낙관론과 과대평가
이번 글부터 두, 세 편의 글에서는 사이버 물리 시스템(CPS) 기반 지능형 서비스의 가장 핵심이 될 것으로 보이는 인공지능 기술의 현재와 미래, 전망에 대해서 같이 살펴보고자 한다. 우리나라 대기업들이 앞다투어 인공지능 기술에 대한 대규모 투자 계획을 발표하고 있고, 우리나라 정부를 포함한 세계 각국 정부들도 인공지능 기술 경쟁에서 앞서 나가기 위해 다양한 계획들을 발표하고 있는 현 상황에서 과연 이런 인공지능 기술에 대한 열기가 기대하는 만큼의 물질적인 번영과 부를 가져다줄 수 있을지, 그렇다면 어느 정도로 광범위하고 다양하게 우리 사회에 영향을 끼칠지 같이 생각해보는 시간을 가지려고 한다.

2016년 1월 “알파고(AlphaGo)”가 이세돌 9단을 이긴 사건을 계기로 최근 5년간은 IT 기술 매체의 많은 지면과 영역을 인공지능 관련 기술들에 관한 내용이 채워왔다. “알파고”를 만든 구글의 “딥마인드(DeepMind)”는 여전히 수익을 내지 못하고 2019년 8월 기준으로 1조 5천억 원이 넘는 큰 부채를 안고 있는 회사임에도 불구하고 기업 가치가 엄청나게 상승했으며, “딥마인드”의 기업 가치가 앞으로도 높게 평가될 것임에 대해서는 대부분의 전문가가 부정하지 않는 것 같다.

최근 벤처 캐피털리스트들의 투자 기조가 코로나바이러스로 인한 경기 위축과 “우버(Uber)”나 “위워크(WeWork)”와 같은 주요 유니콘 기업들의 실적 부진, 도덕적 해이(Moral Hazard)로 미래 성장성보다는 현실적인 수익 전망을 중심으로 보수적으로 돌아섰다고는 하지만, 인공지능 기술에 대한 기대는 쉽게 수그러들지 않는 것 같다.

지금까지는 사이버 물리 시스템(CPS) 관련 기술들의 미래 전망에 대해서 긍정적인 측면에서 많이 다루어 왔고, 이런 긍정적인 측면을 뒷받침할 만한 근거들도 많이 소개하였다. 인공지능 기술의 현재와 미래에 대해서는 조금 다른 방식으로 접근해보려고 한다.

먼저, 현재 우리들이 가지고 있는 인공지능 기술의 기대감과 전망이 정말 현실성이 있고 적절한 것인지, 우리가 지나치게 긍정적으로 생각하고 있는 것은 아닌지, 인공지능 기술에 대해서 우리가 가지고 있는 오해와 편견에 대해 살펴보려고 한다. 인공지능 기술의 미래 가능성에 대해서 조금이나마 정확하게 살펴보기 위해서는 이런 오해와 편견을 걷어내는 것이 중요하다고 필자는 생각한다.

IT 기술 매체에서 다양한 IT 기술들의 전망에 대해서 긍정적인 측면을 부각하고 보여주는 것은 IT 기술 시장의 새로운 비즈니스가 실현될 수 있도록 투자 자금이 흘러들 수 있도록 하는 긍정적인 측면도 있지만, 새로운 기술이 수익성 있고 지속가능한 비즈니스로 실현되기 위해 필요한 다양한 측면을 있는 그대로 보지 못하게 하고 지나치게 기술적인 측면만 보게 하는 부작용도 있다. IT 기술 매체에서 다뤄지고 있는 인공지능 기술은 이 양극단이 다른 어떤 IT 기술보다도 극단적으로 나타나고 있어서 인공지능 기술을 이용한 비즈니스를 기획, 설계하는 사람들이 주의해서 이들 정보를 보는 것이 좋다.

첫 번째로, 인공지능 기술에 대한 가장 큰 오해는 현재의 인공지능 기술이 사람과 같은 수준의 자율성과 지능을 가진 수준을 가진 기술로 곧 발전할 수 있다고 하는 가정에 근거하여 나오는 많은 추측과 지나치게 긍정적인 전망들이다.

인공지능 기술에 대한 많은 오해와 과장된 기대감을 불러일으키는 가장 큰 원인은 바로 “인공지능(Artificial Intelligence)”라는 말과 관련이 있다. 인공지능 분야는 최근 IT 매체에서 주목받는 어느 기술 영역보다도 가장 광범위하고 다양한 기술 영역을 다루는 분야임에도, 무엇이든 할 수 있는 요술 방망이 같은 단일 기술의 인상을 준다. 기술의 성숙도 측면에서도 다른 기술들에 비해 많이 부족하지만 마치 지금 당장이라도 쓰면 금맥을 발견할 수 있게 해주는 기술인 것처럼 과장되는 측면이 없지 않다.

인간의 “지능(Intelligence)”이라는 말 안에 포함된 심리학적 현상들이나 개념은 다양하고 범위가 넓다. 이런 “지능”을 인공적으로 만들 수 있게 하는 기술이라는 의미를 담고 있는 “인공지능”라는 말 한 단어로 “인공지능” 기술을 써서 ~한 제품을 만들었다고 얘기하면, 어떤 상품에 벌써 사람과 같은 “지능”이 들어간 것 같은 느낌이 든다.

이런 “느낌”이 요즘 “4차산업혁명”이라는 말과 “인공지능”이라는 말을 접했을 때 대부분의 사람들과 기사를 쓰는 언론인들이 느끼는 느낌이다. “인공지능”이라는 말은 과학기술 용어가 어떻게 남용되고 있는지 가장 잘 보여주는 사례가 아닌가 한다.

문제는 이 “느낌”이 실제 “인공지능”을 전문적으로 연구하는 과학자, 공학자들과 관련된 분야에서 일하는 전문가들이 쓰는 맥락과 너무 다르다는 것이다. 물론, “인공지능”이라는 학문 분야의 궁극적인 목적은 사람과 같이 생각하고 행동하는 컴퓨터와 기계를 만드는 것이다. 그렇지만, 아직 우리는 “인공지능”이라는 학문을 통해 그런 목적을 달성하지 못했다.

심지어는 뭘 만들어야 우리 자신과 같은 지능을 가진 컴퓨터나 기계를 만들 수 있는지도 잘 모를 뿐만 아니라, 우리가 가진 “지능”의 실체에 대해서도 아주 일부분만 이해하고 있을 뿐, 얼마나 이해하고 있는지도 잘 모르고 있다.

그뿐만 아니라, 우리가 만든 “인공지능” 시스템이 사람과 같은 수준의 지능을 가지고 있는지, 이를 어떻게 알 수 있는지 이에 대한 답도 완전하게 얻지 못했다. 물론 원론적인 수준에서는, 앨런 튜링에 의해 제안된 “튜링 테스트(Turing Test)”와 컴퓨터 과학자인 알론조 처치(Alonso Church)가 제안한 “중국인 방 테스트(Chinese Room Test)”와 같은 방법이 있지만, 매우 추상적이고 원론적인 수준의 테스트이다. 실제 컴퓨터 시스템에 이 “튜링 테스트”와 “중국인 방 테스트”를 적용하기 위해서 아직 기술적으로 해결되지 않은 부분이 많다.

또한 좁게는 사람의 “지능(Intelligence)”, 좀 더 포괄적으로는 인간의 “마음(Mind)”을 이해하기 위해 연구하는 학문은 컴퓨터 과학만이 아니다. 인간의 “마음”을 이해하기 위해 연구하는 과학자, 공학자들은 수학, 물리학, 심리학, 뇌과학과 생물학, 철학, 인지과학, 컴퓨터 과학, 뇌공학 등 다양한 학분 분야에 걸쳐 있고, 예전에는 이렇게 다양한 학문 분야를 아울러 인간의 “마음”이 무엇인가에 대한 다양한 가설과 해답을 추구했지만, 요즘은 이들 학문 분야가 서로 협력하여 인간의 “마음”에 대한 퍼즐을 같이 맞추어 가는 상황이다.

우리가 소위 “인공지능” 기술에 대해서 현재 가져야 하는 기대감과 희망을 당분간은 대폭 낮춰야 하는 이유가 바로 여기에 있다. 우리가 만드는 인간의 “마음”의 실체가 무엇인지도 모르는데, 어떻게 만들 수 있단 말인가? 설사 튜링 테스트를 통과한 “인공지능”이 있다고 해도, 이런 “인공지능”이 계산을 통해 내린 결론과 행동을 우리가 과연 이해할 수 있을 것인가? 우리가 이해하지 못하는 대상이 사람과 같이 말하고 행동한다고 해서 사람과 같은 지능적 존재라고 단정할 수 있을 것인가?

“인공지능” 기술은 기술적으로도 아직 성숙되지 않았지만, “인공지능” 기술이 실용화되었을 때 우리가 이런 존재와 어떻게 어울려 살아갈 수 있을지, 이런 존재와 함께했을 때 나타날 수 있는 좋은 점과 부작용에 대해서도 많은 논란과 연구가 이어지는 중이다.

“인공지능” 기술이 사람과 같은 수준의 기술로 발전했을 때에만 이런 문제가 부각되는 것이 아니라, 사실은 그 전에 사람과 같은 수준의 지능은 아니지만 특정한 영역의 작업에서 높은 지능을 가진 지능형 기계와 같은 불완전한 “인공지능” 기술이 활용되는 시기에 생겨나는 문제가 더 많고 복잡하다.

“인공지능”과 관련된 기술적, 철학적인 문제는 이 지면에서 다루기에는 너무 광범위하고 복잡해서 깊게 다루지는 않겠다. 다만, 필자가 여기서 독자분들에게 전달하고자 하는 것은 “인공지능”이란 말에 대한 오해를 접고 좀 더 실용적이고 현실적으로 이 기술을 어떻게 활용할 것인지 생각해야 한다는 것이다.

“인공지능”이란 말을 앞세워서 새로운 비즈니스를 만들고 조직에서 승진하고 승승장구하고 싶은 분들이 많겠지만, “인공지능” 기술이 아직 성숙된 기술이 아니고, 아직도 연구를 통해 밝혀내고 이해해야 할 영역이 많은 불완전한 기술이라는 점을 이해해야 한다. 실제 실무에 적용해서 가치 있는 상품을 만들어낼 수 있을 정도로 “인공지능” 기술을 잘 활용하기 위해서는 활용하려는 특정한 “인공지능” 기술이 어떤 한계를 가지고 있고, 어떤 문제를 가장 잘 해결할 수 있는지 비판적인 지식과 통찰을 가지고 있어야 한다.

“인공지능”이라는 말 아래에는 다양한 영역의 문제를 해결하는 다양한 기술이 포함되어 있다. 인간의 “마음”이 보여주는 특성도 그만큼 다양하기 때문이다. 최근 인기를 끌고 있는 “기계 학습(Machine Learning)” 기술도 “인공지능(Artificial Intelligence)”이라는 말만큼이나 많은 오해와 편견을 불러일으키는 말 중의 하나다. 우리의 “마음”이 보여주는 중요한 특징인 “학습(Learning)”하는 능력은 우리의 “마음”이 가진 중요한 능력 중의 하나이다. 하지만, 학습하는 능력만 갖춘다고 해서 우리가 가진 “마음”을 똑같이 만들 수 있는 것일까? 그렇지 않다는 것이다.

“인공지능”과 심리학, 인지과학 분야에서 다양한 “기계 학습” 모델을 통해 컴퓨터는 쉽게 해결하지 못하지만 인간의 “마음”은 쉽게 해결하는 다양한 문제들을 모델링하고 이를 컴퓨터가 풀 수 있도록 하는 방법들을 밝혀내기는 했지만, 이런 모델들은 이런 각각의 문제에 대해서만 인간의 “마음”와 비슷하게 동작하는 것이지, 이런 “기계 학습” 모델 하나만 가지고 우리의 “마음”을 동일하게 만들 수 있는 것은 아니다. “학습”할 수 있는 능력은 우리의 “마음”이 가진 다양한 특성 중의 하나이지, 이 특성 하나만 가지고 우리의 “마음”이 완성되는 것은 아니라는 것을 이해할 필요가 있다.

이렇게 “인공지능”이 목표로 삼고 있는 우리의 “마음”을 컴퓨터가 우리와 같은 수준으로 흉내 내고 동작하기 위해서는 우리 “마음”의 다양한 특성들과 역량들이 컴퓨터 소프트웨어화되어 완전하게(holistically) 통합(integration)되고, 이렇게 통합된 인공지능이 “마음”의 통합된 전체와 같은 특성과 능력을 보일 수 있도록 하나의 전체, 완전체로서 동작할 때에야만 우리가 현재 생각하는 “인공지능(Artificial Intelligence)”이라는 말에 걸맞은 기대와 문제점을 드러내게 될 것이다. 

인공지능 기술에 대한 우리들의 오해 (2) – 인공지능 본연의 기술과 도구 기술의 혼동
두 번째로, 인공지능을 만드는 데 쓰는 도구가 되는 기술과 인공지능 기술을 혼동함으로써 오는 혼란과 오해이다. 인공지능을 만드는 데 쓰는 도구가 되는 기술을 잘 알고 쓴다고 해서 인공지능 기술을 잘 알고 만들 수 있는 것은 아님에도 불구하고, 최근 인공지능 기술을 대표하는 기술로 텐서플로우(TensorFlow)와 같은 소프트웨어 도구가 소개되는 것은 오해와 혼란의 여지가 있다.

현재 가장 인기 있는 인공지능 기술인 “딥러닝(Deep Learning)”은 사실 전문가들 입장에서는 일종의 범용 근사 계산기(universal approximator)에 가까운 기술이다. 보통 일반 매체에서 딥러닝을 이용한 인공지능 기술을 소개하는 경우 모델을 디자인하고 검증하는 수고에 대해서는 잘 언급하지 않고 데이터만 있으면 딥러닝 모델이 학습할 대상을 알아서 학습한다는 식으로 표현하는 경우가 많아서 딥러닝 기술이 만능인 것 같은 인상을 줄 때가 많다.

최근 인공지능 붐이 딥러닝에서 시작된 것을 생각하면 현재 일반 대중들, 심지어는 IT 분야에서 일하는 분들까지도 이렇게 왜곡되게 표현한 딥러닝 기술로 대표되는 인공지능 기술에 대한 보도나 기사들 때문에 데이터만 모아주면 딥러닝 모델이 알아서 원하는 작업을 해주는 것 같은 인상을 받는 경우가 많은 것 같다.

딥러닝 모델을 활용하는 기계 학습 엔지니어들의 입장에서는 딥러닝만큼 다루기 쉽지 않은 기계 학습 기술이 없다. 우선 보통 “통계적 학습 이론(statistical learning theory)”에 따른 기계 학습 모델들에 비해서 학습할 파라미터의 수가 훨씬 많기 때문에 더 많은 데이터가 필요할 뿐만 아니라, 확률 모델로 어느 정도 분명한 해석이 가능한 다른 기계 학습 모델들에 비해서 딥러닝 모델은 입력과 출력 노드 뉴런들의 값을 제외하고는 모델의 대부분을 구성하는 가중치 텐서(weight tensor)와 숨겨진 노드(hidden node)들이 뭘 나타내고 배우고 있는지 해석하기가 쉽지 않다.

딥러닝 모델을 우리가 원하는 대로 동작시키기 위해서는 입력 노드에 어떤 자질(feature)들로 데이터를 표현할지도 주의 깊게 설계해야 하는데, 이 과정이 보통 그렇게 쉽지 않은 경우가 많다.

컨볼루션 신경망(Convolution Neural Network; CNN)처럼 영상 데이터에 주로 쓰이는 딥러닝 모델은 그나마 조금 나은 편이지만, 자동화된 제어나 예측 분석 등의 특수한 응용 분야에 적용되는 딥러닝 모델은 입력 노드가 표현하는 “상태 공간(configuration space)”을 기계 학습 엔지니어가 설계하는 방식에 따라서 학습 성능과 모델의 정확도, 유용성이 천차만별로 달라지는 경우가 많다. 이런 이유로 사실 데이터만 있으면 알아서 배운다는 말이 무색할 정도로 딥러닝 모델을 만드는 작업은 많은 시행착오를 동반하는 경우가 많다.

그나마 요즘은 텐서플로우와 파이토치(PyTorch)와 같이 딥러닝 모델 개발을 쉽고 빠르게 해줄 수 있는 기계 학습 소프트웨어 프레임워크 기술이 크게 발전해서 딥러닝을 사용하는 기계 학습, 인공지능 기술 엔지니어와 연구자들의 이런 고충과 수고를 많이 덜어주고 있다.

그렇지만, 딥러닝 모델이 가진 근본적인 한계를 이런 기계 학습 소프트웨어 프레임워크 기술이 모두 해결해주는 것은 아니기 때문에 여전히 딥러닝 모델을 현장에서 적용하는 것은 말처럼 쉽지 않은 일이다. 사실 딥러닝 기술의 이런 한계 때문에 오히려 텐서플로우와 같은 소프트웨어 프레임워크 기술의 발전이 더욱 필요하기도 하고, 이런 이유로 텐서플로우와 같은 기술이 중요한 인공지능 개발을 위한 소프트웨어 기술로 각광받고 있기도 하다.

텐서플로우나 파이토치 자체는 인공지능 기술이 아니라는 것을 독자 여러분들께서는 다시 환기해둘 필요가 있다. 많은 IT 전문가들도 잘 아시겠지만, 텐서플로우와 파이토치는 딥러닝 같은 기계 학습 모델을 잘 만들 수 있도록 도와주는 소프트웨어 도구다.

이런 기계 학습 모델을 쉽게 프로그래밍할 수 있도록 돕는 소프트웨어 도구를 이용해서 기계 학습 전문 소프트웨어 엔지니어들이 목적에 맞는 딥러닝 모델과 기계 학습 모델을 설계하고 테스트해서 실제 현장의 응용 분야에 쓰일 수 있도록 배치해야 비로소 우리가 체감하는 인공지능 기능을 가진 서비스나 제품으로 기능을 하는 것이다.

인공지능 기술과 이런 인공지능을 가능하게 하는 개발 도구는 분명히 구분해서 소개하고 다뤄져야 함에도 인공지능 기술을 만드는 것을 돕는 개발 도구가 인공지능 기술의 대표적인 기술인 것 같은 인상을 주게끔 많은 매체에서 소개하고 있어 혼란을 주고 있는 것 같다. 독자분들은 이 점을 분명히 구분해서 받아들여야 인공지능 기술에 대한 혼란을 줄일 수 있을 것이다.

이렇게 인공지능 기술과 인공지능을 만드는 데 쓰는 도구가 되는 기술을 인공지능 기술로 혼동함으로써 오는 혼란은 앞서 설명한 첫 번째 오해와 관련이 있다. 이 점과 관련해서 세 번째로 짚고 넘어가야 할 오해와 편견이 있다.

인공지능 기술에 대한 우리들의 오해 (3) – 특정 인공지능 요소, 도구 기술에 대한 지나친 맹신
세 번째로 우리가 생각해봐야 할 오해와 편견은, 소위 텐서플로우(TensorFlow)와 같은 인공지능 기술을 익히고 잘 활용하면 금방이라도 사람들이 실직할 수 있고 사회적으로 문제가 되는 자동화 기술이나, 곧 대박을 낼 수 있는 혁신적인 수준의 인공지능을 만들 수 있을 거라는 생각이다.

현재 인공지능 기술로 불리는 기술들을 써서 정말로 우리와 같은 지능을 가진 인공지능을 만들 수 있을지 없을지 아직 알 수 없고, 만들 수 있다고 해도 아주 일부분의 특정한 작업만 잘 할 수 있는 인공지능을 만들 수 있을 뿐이다.

우리 현재 인공지능 기술로 불리는 많은 기술들이 다른 과학, 공학 분야와 달리 아직 검증되지 않은 가설을 컴퓨터를 이용한 모델로 만들어 놓은 것에 불과한 것이 많고, 이런 모델로 만든 컴퓨터와 자율형 기계의 지능적인 행동이 정말로 우리가 보여주는 행동과 지능에 비교해서 같은 것인지 알 수 없는 경우가 대부분이다.

현재 알려진 인공지능 기술을 활용함에 있어서 세 번째 오해를 이해하는 것은 정말 중요하다. 그리고, 이 세 번째 오해는 앞의 첫 번째 오해와 두 번째 오해 때문에 결국 나타나는 현상이다.

진짜 인공지능을 만드는 것과 지금까지 연구된 인공지능 분야의 지식과 기술을 응용해서 산업현장과 비즈니스에 응용해서 자동화율을 높이고 프로세스의 효율과 스피드를 개선하는 일의 차이를 분명하게 구분하여 생각할 필요가 있다. 인공지능을 만들기 위해 우리가 직면한 도전과 한계에 대해서 인공지능 전문가뿐만 아니라 인공지능을 활용하는 보통의 IT 전문가들도 어느 정도 인식할 필요가 있다.

현재 우리가 인공지능 기술이라고 사용하고 있는 알고리즘이나 방법론들은 우리 인간의 마음(Mind)이 수행하는 작업을 흉내 내고 설명하기 위한 모델로부터 시작한 것들이라는 걸 우선 이해할 필요가 있다. 이 모델들 대부분이 인간의 마음과 두뇌가 수행하는 아주 특정한 측면을 설명하거나 이해하기 위해 만든 수학적인 모델들이고, 이 특정한 측면을 벗어난 특징이나 인지 영역으로 들어가면 이런 모델들이 쓸모없게 되거나 다른 모델과 상충하는 결과를 보여주는 것이 많다는 것을 생각해야 한다.

이런 점을 가장 잘 보여주는 인공지능 기술 중의 하나가 바로 요즘 인기를 끌고 있는 딥러닝이다. 딥러닝은 사실 인간 두뇌의 해부학적인 지식을 심리학의 행동 학습을 설명하는 이론과 결부시켜 만든 수학적 모델이다. 이런 측면을 고려하지 않고 딥러닝의 수학적, 이론적인 측면만을 공부한 컴퓨터 과학자, 또는 수리통계학자들은 딥러닝이 알고 보니 그냥 통계 이론에 불과하다고 생각한다.

딥러닝을 비롯한 기계 학습 알고리즘과 기술들을 개발하기 위해 사용하는 이론들은 통계학의 용어와 개념을 빌어 디자인되고 표현된 것이 많다. 이것을 “통계적 기계 학습 이론(statistical machine learning theory)”이라고 하는데, 기계 학습 이론을 심리학, 인지과학, 신경과학의 통합적인 맥락에서 배우지 않고 통계적 기계 학습 이론을 빌어 표현된 기계 학습 알고리즘만 배운 컴퓨터 과학자나 공학자, 소프트웨어 엔지니어들, 통계학자들은 기계 학습이 알고 보니 그냥 통계 이론에 불과하다고 느낄 수 있다.

이렇게 그저 통계 이론, 알고리즘의 하나 정도로 여겨지는 인공지능 기술의 본질에 대해서 잠시 생각해볼 수 있는 시간을 가지기 위해 짧게 딥러닝 기술의 역사를 살펴보도록 하자.

딥러닝의 시작은 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”이다. 신경 세포가 전기적인 발화(firing)를 하는 것을 여러 신경 세포로부터의 발화(firing)가, 신경 세포 간 연결 방식인 시냅스를 통해 연결되어 가중 합산(weight summation)되면서 특정한 문턱값(threshold)을 넘어서면 0,1의 전기적인 상태를 표현하는 디지털 신호와 같은 발화를 한다는 것이 맥컬로크-피츠의 신경 세포 발화 모델이다. 

이 맥컬로크-피츠의 신경 세포 발화 모델을 인공지능에 처음으로 응용한 것이 인공지능의 대부인 마빈 민스키(Marvin Minsky) 교수와 맞대결을 펼쳐 유명해진 프랭크 로젠블라트(Frank Rosenblatt) 박사이다. 프랭크 로젠블라트 박사가 제안한 “퍼셉트론(perceptron)”은 현대 딥러닝 및 신경망(neural network) 이론의 기초가 되는 중요한 수학적인 모델이다.

이 “퍼셉트론”은 인간 두뇌의 심리학적, 신경 생리학적 지식을 기초로 만든 수학적인 모델이 우리 두뇌의 정보 처리 방식을 이해하는 데 중요하다는 것을 보여준 사건으로, 뇌과학 및 신경과학, 심리학, 인지과학의 연구 성과를 인공지능 연구에 활용하게 하는 계기가 된다.

“맥컬로크-피츠의 신경 세포 발화 모델”과 함께 딥러닝 이론의 기반이 된 또 하나의 심리학 학습 이론은 캐나다의 심리학자인 도날드 올딩 헵(Donald Olding Hebb)이 우리 두뇌의 학습 원리로 제안한 “헵 학습 이론(Hebbian Learning Theory)”이다.

1949년 도날드 올딩 헵(Donald Olding Hebb)은 심리학자로서 명성을 높이게 된 저서인 “행동의 조직(The Organization of Behavior)”라는 책에서, 신경생리학적인 사실을 바탕으로 우리의 두뇌와 신경 조직은 자주 받아들이고 사용하는 신경 네트워크의 시냅스는 그 연결이 장기적으로 강화되어 더 빠르고 정확하게 자극에 반응할 수 있도록 신경계의 시냅스가 변화한다는 “헵 학습 이론”을 제안하게 된다.

이 “헵 학습 이론”에서 표현하고자 하는 시냅스(synapse) 연결의 강도는 신경망, 즉 딥러닝 모델에서 가중치 행렬(weight matrix)의 값으로 표현되는데, 이 가중치 행렬의 한 값이 바로 해당 가중치 행렬 값으로 표현되는 시냅스를 통한 두 뉴런 간 연결의 정도를 표현한다. 딥러닝의 학습 과정은 입력과 출력을 가장 잘 맞출 수 있도록 신경망의 가중치 행렬과 편향값(bias)이 신경망이 추정하려고 하는 확률 모델에 가장 근접하도록 최적화하는 과정으로 수학적으로 표현된다.

특정한 입력, 출력 뉴런 사이의 연결이 강화되어야 모델을 더 잘 추정하게 된다면 해당 시냅스를 표현하는 가중치 행렬 값이 커지게 되고, 특정한 입력, 출력 뉴런 사이의 연결이 약화되거나 억제(inhibition)되어야 신경망이 추정하고자 하는 모델을 더 잘 추정하게 된다면 해당 가중치 행렬의 값을 줄이는 방식으로 학습이 이루어지게 된다. 

이렇게 우리 두뇌의 작동을 신경생리학, 생물심리학의 연구 성과에 기초해서 수학적으로 표현한 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”, “헵 학습 이론(Hebbian Learning Theory)”, 그리고 이를 이용해 인공지능 문제 해결에 응용한 “퍼셉트론(perceptron)” 이론의 영향을 받아 생물물리학자인 존 홉필드(John Hopfield)가 “홉필드 네트워크(the Hopfield neural network)”라는 재귀 신경망(recurrent neural network) 모델로 연상 기억(associative memory)과 망각(forgetting)을 설명하는 이론을 내면서 딥러닝과 신경망 모델이 다시 주목을 받기 시작했다.

이렇게 신경망 모델이 다시 주목을 받기 시작하면서, 신경망 모델의 학습을 위한 알고리즘으로 당시 카네기 멜런 대학에 재직 중이던 데이비드 러멜하트(David E. Rumelhart), 제프리 힌튼(Geoffrey Hinton), 로널드 윌리엄스(Ronald J. Williams)가 “역전파(back-propagation) 알고리즘”을 제안하면서 다층 신경망의 학습 방법에 큰 발전의 계기가 마련되게 된다.

사실 이때까지만 해도 신경망 알고리즘은 통계적 기계 학습 이론과 크게 관련이 없고, 우리 두뇌의 신경망이 어떻게 학습하는지를 표현하고 연구하기 위한 수학적인 모델에 불과했다. 하지만, 신경망을 학습시키는 알고리즘으로 “역전파(back-propagation) 알고리즘”이 제안되고, 이 “역전파 알고리즘”이 일반적인 신경망을 학습시키는 방법으로 경사 하강(gradient-descent) 알고리즘 방식의 최적화 알고리즘과 연관되어 발전하면서, 이 경사 하강 방식의 최적화 알고리즘을 유도하고 이해하기 위한 이론적인 틀로 통계 이론이 활용되기 시작했다. 

이렇게 “퍼셉트론(perceptron)”으로 시작된 “다층 전향 신경망(multi-layer feed-forward neural network) 구조”, 그리고 이 “다층 전향 신경망(multi-layer feed-forward neural network)” 구조를 학습시키기 위한 방법으로 제안된 “역전파(back-propagation) 알고리즘”, 그리고 “다층 전향 신경망(multi-layer feed-forward neural network)”을 학습시키는 방법으로써 “역전파(back-propagation) 알고리즘”과 이를 다시 가중치 행렬(weight matrix)와 편향값(bias)를 파라미터로 하는 확률 분포(probability distribution)를 찾는 “확률 분포 추정(probability distribution estimation)” 문제로 표현한 통계적 기계 학습 이론의 도입이 오늘날 딥러닝 기술의 틀을 만든 것이다.

최신의 딥러닝 기술을 잘 아는 독자분들께서는 “다층 전향 신경망(multi-layer feed-forward neural network)” 말고도 “장단기 기억 재귀 신경망(Long-Short Term Memory Recurrent Neural Network)”, “심층 생성 모델(Deep Generative Model)”, “심층 강화 학습(Deep Reinforcement Learning)”, “심층 베이지안 학습 모델(Deep Bayesian Learning Model)”등 다양한 딥러닝 모델이 있다고 말씀하시는 분들도 있을 것이고, “역전파(back-propagation) 알고리즘”이 아닌 방법을 사용하는 학습 알고리즘도 많다고 반박하시는 분들도 있을 것이다.

필자도 이런 사실을 잘 알고 있다. 다만 오늘날의 딥러닝 기술을 만든 큰 흐름과 대부분의 딥러닝 모델의 구조가 다층의 “가중치 매트릭스(weight matrix)”와 “편향값(bias)” 파라미터로 표현되는 확률 분포를 데이터로부터 추정하는 문제로 표현되어 있다는 공통의 특징을 설명하려고 한 것이며, 현대의 딥러닝 모델은 이와 같이 우리 두뇌의 정보 처리 방법을 통계 이론의 언어를 빌려 표현한 것이라는 것을 설명하려고 한 것이다.

현재 딥러닝 기술이라고 부르는 기술은 사실 우리 두뇌의 정보 처리 과정을 이해하려고 노력하는 과정에서 만들어진 수학적인 모델일 뿐이며, 이 수학적인 모델은 우리 두뇌의 정보처리 과정의 아주 일부분만을 설명하고 표현할 수 있다. 이 점이 인공지능 기술의 미래를 이해하기 위해 여러분들이 꼭 이해해야 하는 점이다.

인공지능 기술의 스펙트럼이 워낙 넓어 모든 세부 기술에 대해서 장, 단점과 한계를 분석하고 그 미래의 효용에 대해서 소개하기 위해서는 인공지능 기술에 대한 개론서 수준의 책을 한 권 써야 할 것이기에, 이 글과 앞으로 두세 편의 글에서 다룰 인공지능 기술은 딥러닝을 비롯한 최근 이슈가 된 몇 가지 기술로 한정해서 살펴보도록 한다.

다시 앞서 언급한 인공지능 기술의 세 번째 오해에 대한 논의로 돌아가도록 하자. 정말 텐서플로우(TensorFlow) 및 파이토치(PyTorch) 기술을 완벽하게 마스터한다고 해서 인공지능 기술을 금방 만들 수 있고, 기업의 비즈니스 모델이 획기적으로 변화될까?

정말로 텐서플로우 및 파이토치 기술을 잘 활용하고 요즘 유행하는 AutoML과 같은 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축과 같은 인프라를 구축한다고 해서 기업의 비즈니스 모델을 획기적으로 개선할 무언가가 나올 수 있을까?

세 번째 오해는 앞서 소개한 두 번째 오해와 아주 밀접한 관련이 있다. 텐서플로우, 파이토치, AutoML등의 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축, 주요 인공지능 학술회의에서 쏟아져 나오는 다양한 최신 딥러닝 모델 및 새로운 기계 학습 알고리즘들 모두를 알면 정말 우리가 원하는 자동화된 비즈니스 플랫폼을 당장 만들 수 있을까?

위에서 언급한 기술들은 인공지능 기술을 만드는 도구가 되는 기술(텐서플로우(TensorFlow), 파이토치(PyTorch), AutoML, 에어플로우(AirFlow), 쿠브플로우(KubeFlow), 확장 텐서플로우(TensorFlow Extended)를 이용한 기계 학습 파이프라인 및 자동화 기술 등)이거나, 인공지능 기술의 전체 스펙트럼에서 아주 일부, 작은 일부가 되는 기술(CNN, RNN등의 딥러닝 모델 요소, BERT, GPT-3등의 대형 자연어 처리 모델)들이다. 이런 기술들의 장, 단점을 파악하고, 이런 기술들을 이용해 고객과 사용자가 정말 사람과 같은 지능을 가진 기계와 상호 작용하는 것과 같은 편리한 서비스가 되어야 비로소 인공지능 기술이 되는 것이다.

기업의 CIO와 정보 기술 의사 결정 담당자가 바로 이 부분에서 중요한 역할을 해야 하는 것이다. 현재 알려진 인공지능 기술들 대부분은 인공지능 요소 기술들이다. 즉, 이 기술 하나를 제대로 안다고 해서 인공지능이 되는 것이 아니라, 인공지능을 만들기 위해서 활용해야 할 도구나 일부 부품에 해당하는 기술들이다.

이런 다양한 스펙트럼의 기술들의 장, 단점과 특성을 이해하고, 고객과 사용자가 지능을 가진 객체와 상호작용하면서 거부감없이 자연스럽고 사람에 친화적인(human-friendly) 사용자 경험과 인터페이스를 제공하면서 편리함을 제공하는 서비스나 상품이 되어야 비로소 인공지능 기술이라고 할 수 있다. 이런 인공지능 기술과 서비스, 상품이 되도록 기술 요소들을 전략적으로 선택하고 비즈니스 정보 시스템을 설계, 구축하도록 리더십을 발휘하는 것이 바로 기업의 CIO와 정보 기술 의사 결정 담당자가 인공지능 기술을 활용하기 위해 해야 할 일이다.

이런 측면에서 현재 인공지능 기술이 할 수 있는 서비스나 시스템의 지능화 수준은 우리가 기대하는 것보다 상당히 낮다고 볼 수 있다. 딥러닝 기술을 예로 들어보더라도, 현재 딥러닝 기술로 할 수 있는 많은 작업들이 우리 두뇌의 저수준(low-level)에서 본능적이고 자동화된 방식으로 일어나는 작업들인 경우가 많기 때문이다. 

정말로 지능을 가진 존재와 상호작용하는 것과 같이 느끼게끔 할, 추론(reasoning), 정보의 개념화, 지식화, 재조직화, 인과관계(causality)의 학습 및 인지, 고등 감정의 공감 및 소통, 맥락에 따른 언어의 화용(discourse) 이해, 비유적 추론을 통한 지식 확장과 같은 현재 인간만이 가지고 있다고 생각되는 고등 정신 과정까지 모델링하기에 우리가 우리의 두뇌의 작동 방식과 인지 프로세스에 대해서 모르는 것이 너무 많다. 우리가 만드는 것이 무엇인지도 모르면서 그걸 기술로 만드는 것은 불가능하기 때문에, 아직 우리 두뇌와 지능에 대해 가진 지식과 이해의 이런 많은 빈틈을 메우지 않으면 인공지능 기술은 결코 만들 수 없다.

딥러닝을 비롯한 최근 기계 학습 기술들이 4 ~ 5년 전에 비하면 비약적으로 발전한 것은 분명하다. 앞으로 사이버 물리 시스템을 이용한 지능형 서비스 비즈니스에서 볼 수 있는 인공지능 기술의 미래는 이렇게 인공지능 기술이 기계에 실제로 줄 수 있는 자율성과 지능의 수준과 사람들이 인공지능이라는 말에서 받는 인상과 느낌에서 드는 지능형 서비스와 상품 수준의 기대감 사이의 차이(gap)를 점차 줄여가는 과정이 될 것이다.

인공지능 기술은 시스템 기술이다. 이 말은 하드웨어와 소프트웨어가 적절한 수준으로 같이 발전됨과 동시에, 하드웨어, 소프트웨어가 인공지능이라는 같은 목표를 향해서 하나의 전일적인(holistic) 시스템으로 온전하게 통일되어야 기계로부터 지능이라 불릴 수 있는 것을 볼 수 있고, 이를 우리 생활에 편리하게 활용할 수 있다. 

이 얘기는 어느 한 종류의 하드웨어, 어느 한 소프트웨어 하나가 단번에 인공지능을 만들어낼 수 없음을 의미한다. 최근 가장 많이 발전한 인공지능 기술의 하나인 자연어 기반의 대화 인터페이스(conversational interface) 기술의 경우, BERT, GPT-3와 같은 대형 딥러닝 모델에 점점 더 많은 자연어 데이터를 학습시켜 실제 사람과 대화하는 것과 유사하게 출력을 내도록 고도화하고 있지만, 아직 이런 기술들이 우리 인간이 대화를 통해 서로 공감하고 알아가며 의사소통하는 과정을 온전하게 구현하지는 못하고 있다. 오로지 비슷하게 흉내를 내고 있을 뿐이다.

우리들이 언어를 사용해서 소통할 때, 단순히 언어 심볼을 조작한다고 해서 서로 소통한다는 느낌을 받지 않는다. 언어는 우리 정신의 최상위층에서 일어나는 정신과정(cognitive process)의 하나이기 때문에, 우리가 한 문장을 말하기 위해서는 그 아래에서 훨씬 더 많은 수의 다양한 정신 과정(cognitive process)이 동시에 일어나고 이런 정신 과정이 하나의 문장 속에 내포된 의미와 의도로 응축되는 과정이 필요하다.

거대한 딥러닝 모델이, 더군다나 아직 뭘 배우는지도 분명하게 알 수 없는 딥러닝 모델을, 마냥 사이즈만 키우고 데이터만 늘려서 학습 시킨다고 해서 우리와 같은 방식으로 언어를 배워 사용한다고는 볼 수 없다.

인공지능은 단순히 하나의 요소 기술로서 대변되는 문제가 아니라, 복잡하고 다양한 정신 과정을 구현하는 수학적 모델들과, 하드웨어, 소프트웨어 기술들이 적절한 아키텍처와 시스템 디자인을 통해 통합되어야 만날 수 있는 기술이다.

우리가 현재 알고 있는 다양한 인공지능 기술들이 도구가 되어, 앞으로 뇌과학과 심리학, 인지 과학에서 밝혀낼 다양한 정신 과정에 대한 지식과 이해를 기초로, 적절한 아키텍처와 구조를 가진 소프트웨어와 하드웨어 시스템이 통합된 전일적인 시스템을 만드는 방법을 찾아낼 때, 우리가 그토록 바라는 인공지능 시스템을 볼 수 있을 것이다.

이런 의미에서 사이버 물리 시스템, 그리고, 사이버 물리 시스템의 대표적인 예인 자율주행 자동차나 로봇과 같은 자율 에이전트는 인공지능 기술의 총아이며 대표적인 기술로 볼 수 있다. 필자가 빅데이터 비즈니스의 미래 지향점으로 계속 소개하고 있는 사이버 물리 시스템 기반의 지능형 서비스에서 인공지능 기술이 중요한 이유중의 하나다.

조금 더 과장해서 얘기하면, 사이버 물리 시스템을 구성하는 모든 기술 요소들은 사이버 물리 시스템이 진정한 인공지능 시스템으로 발전, 진화하기 위해 필요한 기술 요소들이라고도 얘기할 수 있다.

지금까지 앞에서 소개한 세 가지 오해와 과장된 기대로 인해서, 최근 언론과 사람들이 인공지능 기술에 대해서 가지는 위협과 문제 의식은, 고민해야 하는 문제들인 것인 맞지만 실제 상황에 비해서 지나치게 과장되고 부풀려져 있다고 보는 것이 많다.

이런 인공지능 기술에 대한 적절치 못한 지나친 거부감과 문제의식, 또는 지나친 기대감과 맹목적인 맹신은, 인공지능 기술을 활용하는 데 걸림돌이 된다. 이에 더해서, 인공지능 기술을 사용하는 과정에서 우리 인류가 만나게 될 기술적, 윤리적, 철학적인 문제들을 엄밀하게 연구하고 해결하는 데 방해가 되고, 인공지능 기술에 대한 왜곡된 시각을 만들어 기술을 적절한 방식으로 활용하지 못하도록 하여 또 하나의 기술적 위험이 될 수 있다.

“인공지능 국가 전략”의 아쉬운 점과 바라는 점
본론의 맥락과는 다소 다른 얘기지만, 위 세 번째 오해와 같은 맥락에서 잠시 언급하고 넘어가야 할 것이 있다. 인공지능이 이렇듯 하나의 요소 기술이기보다는 다양한 기술 요소들이 어우러져 만들어지는 시스템 기술이기 때문에, 최근 과학기술정보통신부에서 제시한 인공지능 기술 육성 정책의 비전은 필자의 입장에서는 조금 실망스러운 측면도 있다. 과학기술정보통신부에서 우리나라의 미래 먹거리로서 제시한 인공지능 기술 육성 비전은 2020년부터 2029년까지 약 1조 96억 원을 투자하여 PIM 방식의 인공지능용 반도체 기술에 집중하겠다는 것이다[6-13].

물론 위 반도체 기술 개발에 집중하겠다는 것은 선택과 집중을 통해 투자의 효과를 높이고 산업의 경쟁력을 단시간에 높이기 위해 꼭 필요하고, 우리나라의 반도체 분야 경쟁력과 현시점에서 인공지능 기술의 수준을 고려했을 때 좋은 선택인 것은 사실이다.

다만, 필자가 우려하는 것은 세 가지이다. 첫 번째로, 기술 개발이 이루어질 10년이 지난 후에 PIM(Processor-In-Memory) 방식의 인공지능용 반도체가 여전히 인공지능 기술을 위한 반도체 기술로서 상품성이 있는 기술일지가 의문이다. PIM방식의 반도체는 딥러닝과 통계적 기계 학습과 같이 학습 과정에 많은 데이터가 필요한 인공지능 기술들이 학습 과정에 필요한 데이터와 연산을 효과적으로 다룰 수 있게 하는 아키텍처인 것이 맞다.

그렇지만, 현재 유망하다고 해서, 10년 뒤에도 여전히 유효한 기술이라고 단정할 수는 없다. PIM 방식의 새로운 반도체 기술을 확보해서 선제적으로 시장을 창출하려는 정부의 생각에는 동의하며, 전통적인 GPGPU나 TPU, 최근 AI 연산 가속에 많이 쓰이는 FPGA와 같이 다양한 모델을 유연하게 실행할 수 있고, 현재 우리나라가 기술을 보유하고 있지 않은 반도체 기술을 확보하는 것에도 같이 관심을 가져주면 좋겠다.

PIM 방식 프로세서는 전통적인 범용 프로세서에서 항상 문제가 되었던 프로세서-메모리 사이의 데이터 통신으로 인한 연산 지연을 해결할 수 있는 발전된 반도체 아키텍처이다. 기존의 컴퓨터는 연산을 위한 프로세서 코어와 연산을 위한 데이터를 두기 위한 메모리가 별도의 반도체로 만들어져 컴퓨터 머더보드에 탑재되고, 이 프로세서 코어에서 데이터를 메모리로부터 가져오기 위해 사용하는 캐시 메모리와 데이터 버스가 항상 연산의 지연을 만드는 병목의 주범이 되었다.

PIM 방식의 프로세서는 타일 형태의 메모리 위에 격자 형태로 데이터 통신을 위한 패브릭(fabric)을 놓고, 이 메모리 타일 위에 프로세서 코어를 배치한 후 격자 형태의 패브릭(fabric)을 통해 메모리와 프로세서가 통신하여 연산하는 기술로, 프로세서-메모리 사이의 데이터 통신으로 인한 연산 지연 문제를 해결하는데 적합한 아키텍처의 프로세서다. 

현재 발전된 반도체 설계 기술로 PIM 방식의 프로세서를 확장성 있고(scalable) 경제적으로 만드는 것이 가능하기 때문에 앞으로 딥러닝과 같이 데이터를 많이 필요로 하는 인공지능 모델의 학습과 추론을 위한 연산에 적합할 것으로 보인다.

다만, PIM 반도체 기술이 모델의 학습을 위해 데이터를 많이 사용하는 딥러닝과 같은 인공지능 연산에 적합한 것은 사실이지만, 인공지능 구현을 위한 모든 분야에 꼭 적합할지, 현재의 기계 학습 및 인공지능 구현을 위한 프로그래밍 모델과 함께 앞으로 발전될 인공지능 기술에도 적합한 아키텍처일지 아직 검증되지 않았다.

인공지능의 구현을 위해 실리콘 소재 및 플랫폼 기반의 전통적인 반도체 기술로 인공지능을 위한 범용 반도체를 만드는 것이 모든 측면에서 효과적인지도 아직 검증되지 않았다. 현재까지 발전해온 전통적인 반도체 설계, 제조 기술은 폰 노이만 방식의 고전적 컴퓨터의 연산 성능을 높이는데 매우 효과적인 방식이었고, 현대 과학기술을 견인해온 중요한 기술임은 분명하다.

인공지능 기술에 필요한 컴퓨팅 문제를 폰 노이만 방식의 고전적 컴퓨터가 모두 해결해줄지는 아직 분명하지 않다. 더군다나 우리 두뇌의 정보처리 방식을 모방하는 딥러닝 모델의 가속과 확장성을 위한 프로세서 기술이나 신경모방(neuromorphic) 프로세서 기술을 확보하는 것이 주요 목표라면 단순히 연산 성능이 높은 프로세서가 아니라 신경가소성(neural plasticity)과 같이 유연하고(flexible) 부드러운(soft) 회로를 만들 수 있는 능력과 높은 수준의 병렬성(massive parallelism)을 가진 우리 두뇌의 특성을 반영할 수 있는 새로운 반도체 플랫폼 기술이 개발되어야 할 수 있다. (사실은 이것이 최근 양자 컴퓨터가 유독 인공지능 분야에서 주목받고 있는 이유 중의 하나이다. 이에 대해서는 앞으로 기고할 글에서 좀 더 구체적으로 다루도록 한다.)

인공지능 기술이 약방의 감초처럼 사회 곳곳 다양한 분야에 활용될 것을 생각하면 적절한 아키텍처의 반도체 기술이 만들 수 있는 경제적인 효과가 큰 것은 사실이고, 우리나라의 반도체 경쟁력을 생각하면 좋은 선택인 것은 분명하다. 다만, PIM과 같이 현재 관심을 모으고 있는 특정한 프로세서 설계 아키텍처가 10년 뒤에도 인공지능 기술에 여전히 유효한 기술일지 필자는 확신이 없다는 것이다. 

더군다나 아무리 인공지능 연산용 하드웨어 기술의 수요가 늘어난다고 해도 인공지능 연산에 특화된 범용 프로세서가 아닌 반도체 기술은 전체 반도체 시장에서도 일부일 것이고, 현재 우리나라를 먹여 살리고 있는 AP(Application Processor)나 DRAM, NAND 플래시 메모리 기술보다는 시장 규모가 적을지도 모른다는 생각이 들어 좀 더 엄밀하고 신중한 미래 연구와 기술 예측 과정이 필요하지 않을까 하는 생각이다.

두 번째로, 앞서 설명했듯이 인공지능 기술은 시스템 기술이기 때문에, 앞으로 거대과학과 같이 다양한 협업과 조직적이고 체계적인 연구개발이 필요한 분야로 발전하게 될 인공지능 기술 분야에서 다양한 전문성을 가진 전문 인력들이 협업을 통해 사회의 필요를 충족시킬 수 있는 제품과 서비스에 역량을 집중시킬 수 있게 하는 것이 필요하다. 이런 다양한 분야의 전문 인력들을 육성할 방안, 그리고 이들이 협업을 통해 우리나라 경제와 산업에 기여할 수 있도록 하는 체계와 환경에 대해 좀 더 구체적이고 실행 가능하게 기획되면 좋겠다.

PIM 방식의 프로세서가 딥러닝과 같은 데이터 집중적 인공지능 모델 연산에 적합한 프로세서 아키텍처라고 했지만, PIM이 인공지능에서의 연산 한계 문제를 궁극적으로 해결해줄 컴퓨팅 하드웨어 기술인지는 아직 분명하지 않아 기술 위험이 있다고 앞서 얘기하였다.

PIM 프로세서 기술을 통해 우리나라 경제와 산업을 일으킬 특정 분야에 집중하는 것은 좋은 생각이지만, 이게 원래 정책이 이루고자 했던 인공지능 기술의 사회 전반 활용도를 높이고 이를 통해 디지털 전환(Digital Transformation)과 4차산업혁명을 실현하는 목적을 달성하는데 효과적인 방법인지는 또 다른 문제이다.  PIM 프로세서 기술은 인공지능 기술 자체가 아니라 인공지능을 실현하기 위한 도구 기술이기 때문이다.

앞서 인공지능 기술과 인공지능 기술 구현, 실현에 도구가 되는 기술을 혼동하는 것이 현재 우리가 인공지능 기술에 대해 가진 많은 오해와 미신을 낳고 있다고 설명한 바 있는데, 이번 정부의 인공지능 국가전략도 이런 측면의 혼란을 일부 반영하고 있는 것으로 보인다.

인공지능 전문가들은 인공지능을 구현하기 위한 개념적, 원리적인 문제들을 해결하기 위해 다양한 기술들을 도구로써 활용하는데, 이는 반도체 기술과 고성능 컴퓨팅 기술도 포함한다. 이것이 바로 구글이 자신의 클라우드형 지능형 서비스와 딥러닝 기반 기계 학습 기술 발전을 위해 텐서 프로세싱 유닛(Tensor Processing Unit; TPU)까지 개발하고 양자컴퓨팅에 관심을 가지게 된 이유이다.   인공지능 기술의 발전이라는 맥락이 없이 단순히 새로운 아키텍처의 고성능의 프로세서 기술을 개발하는 것이 목적이었다면 TPU 기술이 나오기는 힘들었을 것이다. 

이게 필자가 PIM 방식의 아키텍처를 가지는 인공지능 프로세서 개발에 적지 않은 비중의 자원을 할당해서 집중하였을 때 인공지능 국가 전략이 정말로 정부가 원하는 4차산업혁명 달성에 효과적일지 의문이라고 얘기하는 것의 배경이다.

인공지능 기술의 맥락이 고려되기보다는 이 PIM 아키텍처의 프로세서 기술을 만드는 반도체 설계 및 제조 전문가만 양성이 되고 정작 이를 활용할 인공지능 전문가들의 양성이 뒷전으로 밀려나, 원래 인공지능 기술의 사회에서의 활용과 적용을 확산해서 4차산업혁명을 일으키고 경제와 산업을 중흥하려던 목표에서 벗어날 것이 우려된다. 인공지능 기술의 특성상 학문의 다양성과 학제적 연구개발이 필요한데, 이런 부분에 대한 전략과 방안이 보완되었으면 하는 바람이다.

이런 관점에서 최근 삼성전자가 승현준 MIT 교수를 인공지능 연구개발 분야 총괄 책임자로 선임한 것은 좋은 선택이라고 할 수 있다. 승현준 MIT 교수는 인공지능 분야에서, 특히 요즘 주목받은 딥러닝, 신경망 연구 분야에서 좋은 기여를 많이 한 저명한 인공지능 전문가일 뿐만 아니라, 그간 수행해온 연구들을 보면 딥러닝 알고리즘 외의 다양한 분야에서 연구를 수행한 바 있다. 통계적 학습 알고리즘의 통계 물리학적 분석과 같은 기계 학습 이론 및 통계 물리학, 딥러닝의 기반이 되는 이론 신경과학, 최근에는 딥러닝 아키텍처에 대한 많은 통찰을 주고 있는 커넥토믹스(Connectomics)에 이르기까지 인공지능의 개념과 근본적인 발전에 필요한 다양한 연구를 수행해왔다.

사람과 같은 지능을 가진 기계를 어떻게 하면 만들 수 있을까 하는 근본적인 질문을 다양한 학문 분야를 넘나들면서 일관되게 추구하고 답을 만들어갈 수 있는 학제적인 연구자가 인공지능 분야의 새로운 기술 혁신을 만들 수 있을 텐데, 이런 측면에서 승현준 교수가 적임자인 것이다. 

이렇게, 경제 발전을 위해 인공지능을 위한 도구 기술을 만들더라도, 인공지능 분야의 주요 문제 해결의 맥락을 이해하고 이를 해결하기 위한 도구를 만들면서 기술 혁신을 만들어낼 수 있는 인공지능 전문가들이 필요하다.

이런 측면에서 이번 인공지능 국가 전략에서 제시하는 인공지능 및 소프트웨어 분야 대학원 교육 강화 및 융합 전공 개설 요건 완화와 같은 정책은 정말 필요하고 좋은 정책이다. 이번 인공지능 국가 전략이 현재 정부 수준에서 할 수 있는 최선이라고 필자는 생각되지만, 현장의 연구자들과 좀 더 소통하면서 인공지능 기술이 사회에 적절하게 쓰이기 위해 꼭 필요한 학제적 연구와 학문적 다양성을 확대하는 방안에 대해서 좀 더 보완해주었으면 하는 바람이다. 

이런 측면에서 초, 중 고등학교에서 인공지능 기술을 가르치고 소프트웨어 교육을 하는 것이 그렇게 효과적일 것으로 기대하지 않는다. 인공지능 기술에 대한 대중의 인식과 저변을 확대하는 것은 꼭 필요하다.

그렇지만, 자칫 잘못하면 빠르게 발전하는 인공지능 기술 때문에 인공지능 기술을 적절하게 활용할 수 있는 비판력과 유연함, 사고력, 적절한 수준의 전문 지식은 갖추지 못한 채, 한때 풍미했던 일부 기술에만 익숙한 기술자만 양산하고 이들이 오히려 빠르게 바뀐 인공지능 기술 분야에서 실업자로 도태되는 상황이 생기게 되지는 않을까 걱정된다.

이 때문에 많은 인공지능 분야 전문가들이 인공지능 분야 인력 양성은 아직까지는 대학원 이상의 고등 교육에 집중하고, 인공지능 특성화 고등학교나 전문대학교의 인공지능 분야 집중 과정의 설립에 대해서는 다소 부정적인 이유다.

필자도 인공지능 분야 인력 양성에는 대학원 이상 고등 교육에 집중하고, 초, 중, 고등학교에서는 인공지능 전문 지식을 빠르게 흡수할 수 있는 수학, 과학, 철학과 언어에 대한 기초적인 지식과 역량, 깊이 있는 사고를 할 수 있는 사고력을 키울 수 있는 기본 교육에 더 집중했으면 하는 생각이다.

세 번째로, 인공지능 기술 발전에 기여할 다양한 분야의 전문 인력들이 우리나라 과학기술, 산업 발전에 직접적으로 기여할 수 있도록 국내의 연구기관, 기업에 붙들어 둘 수 있는 유인책을 어떻게 만들 것인지가 분명하게 보이지 않는다. 이들이 구글이나 페이스북과 같은 미국의 첨단 기술 기업, 북미와 유럽의 연구기관으로 유학이나 취업을 하지 않더라도 한국에 남아 자신의 생각과 비전을 발전시킬 수 있게끔 할 수 있는 연구환경, 해외 유수 연구기관이나 국제공동협력 프로젝트와의 협력 체계도 분명하게 보이지 않아 아쉽다.

2018년 12월 2일부터 8일까지 캐나다 몬트리올에서 열린 인공지능 분야의 3대 학회 중 하나인 NeurIPS(Neural Information Processing Systems; 구 NIPS)에서 유럽의 인공지능 연구자들이 모여 범유럽 인공지능 연구 협력체인 ELLIS(European Laboratory for Learning and Intelligent Systems)를 창설했다. ELLIS는 최근 유럽의 많은 촉망받는 연구자들이 미국과 중국의 하이테크 기업들로 유출되는 것을 우려한 유럽의 인공지능 연구자들이, 범유럽 차원의 인공지능 연구 협력체를 만들어 미국과 중국의 하이테크 기업들에 맞설 수 있는 공동 연구 프로그램을 만들고, 이를 통해서 유럽의 인공지능 전문가를 육성하고 이들이 안정적으로 연구할 수 있는 환경을 만드는 것을 목표로 한다[14-24].

우리나라만큼 유럽도 인공지능 분야 인재 유출(brain drain)에 대해서 고심하는 분위기이다. 최근 인공지능 분야 인재들은 구글, 페이스북과 같은 미국 인터넷 기업들이 독식하고 있어, 전통적으로 원리적이고 개념적인 인공지능 연구에 강했던 유럽의 주요 인공지능 연구기관들이 인재들을 빼앗겨 미국과 중국에 주도권을 빼앗길 것을 크게 우려하고 있다. 이런 우려를 해소하기 위해 ELLIS와 같은 범유럽 인공지능 공동 협력 체제가 만들어진 것이다[17].

ELLIS뿐만 아니라, 최근 유럽 연합의 미래 기술 확보를 위해 선정되어 발표되는 대형 연구 프로젝트들도 같이 살펴보자. 이 중에서 눈여겨 봐야 할 프로젝트는 “인간 브레인 프로젝트(The Human Brain Project)”[25-28]와 “양자 기술 개발 프로그램(FET Flagship on Quantum Technology)”[29-30]이다.

두 프로젝트 최근 동향을 보았을 때 ELLIS와 함께 유럽 연합의 인공지능 기술 발전에 크게 영향을 미칠 대형 프로젝트이다. 두 프로젝트 모두 유럽 연합의 “Horizon 2020 프로그램”내 “미래 기술 개발 프로그램(Future and Emerging Technology; FET)”으로서 선정되어 진행되고 있으며, 10년간 10억 유로 이상의 예산이 투입되는 대형 프로젝트로 진행된다[25-30]. 

유럽 연합이 ELLIS와 같이 인공지능 전문가 양성과 연구를 활성화할 수 있는 공동 협력 체계를 현장의 연구자들과 학계의 리더들을 중심으로 모색하면서, 우리나라가 소위 현재 뜨는 딥러닝 기술 중심의 인공지능 연구개발 프로젝트를 기획하는 것과는 다르게, 인공지능 기술 발전의 근본이 되는 지식과 통찰을 얻기 위해 우리 두뇌의 정보처리 방식을 근본적으로 이해하기 위한 “인간 브레인 프로젝트(The Human Brain Project)”, 인공지능과 기계 학습을 위해 필요한 컴퓨팅 기술 개발에 학제적인 기여가 가능한 “양자 기술 개발 프로그램(FET Flagship on Quantum Technology)”까지도 같이 진행하는 것을 눈여겨 봐야 한다.

인재를 길러내는 것뿐만 아니라, 이렇게 길러낸 인재들이 일할 수 있는 환경과 연구개발 프로그램을 같이 만들어내는 것도 우리가 배워야 할 부분이다. 우리나라의 미래 먹거리를 만들 수 있는 핵심 기술로 인공지능 기술을 위한 PIM 방식의 반도체 기술 확보, 인력 양성을 위한 AI, SW 분야 대학원 과정 확대 및 융합 전공 개설 요건 완화와 같은 조치와 함께, 이렇게 확보된 기술과 인재들이 우리나라의 디지털 전환(Digital Transformation)과 4차산업혁명을 실질적으로 구현해낼 수 있도록 맘껏 역량을 발휘하고 창의적으로 일할 수 있는 연구개발 프로그램과 조직을 만들고, 이를 지속가능하고 안정적으로 운영하는 것도 중요하다.

앞서 설명했듯이 인공지능은 하나의 알고리즘이나 소프트웨어로 완성되는 기술이 아니라, 다양한 구성 요소가 어우러지고, 다양한 분야의 전문 지식과 전문가들 사이의 협업을 통해 완성되어야 하는 시스템 기술인 까닭이다.

이번 우리 정부의 인공지능 국가 전략의 내용이 현재 우리가 인공지능 기술에 대해서 가지고 있는 오해와 생각을 어느 정도 확인할 수 있게 해주는 것 같고, 우리가 인공지능 기술을 앞으로의 사이버 물리 시스템 기반 지능형 서비스와 빅데이터 비즈니스에 활용하기 위해 보다 현실적인 관점을 가지기 위해서는 한번 짚고 넘어가는 것이 좋을 것 같아 필자가 조금 무리해서 해당 내용을 다루었다. 언급된 내용들에 대해서는 앞으로 조금 더 자세하게 소개하려 한다.

인공지능 기술의 가을이 다시 오고 있다 – 어떻게 대처해야 할 것인가?
빅데이터 비즈니스, 사이버 물리 시스템 기반의 지능형 서비스 비즈니스와 인공지능 기술사이의 관계와 미래를 살펴보기 전에, 우리가 현재 인공지능 기술에 대해서 가지고 있는 오해와 잘못된 인식에 대해서 살펴보았다. 다시 한번 간단히 정리하자면,

• 첫 번째로, 현재 딥러닝 기반의 인공지능 기술에 대해서 많은 사람이 지나친 기대와 낙관을 가지고 있으며, 이런 지나친 기대와 낙관이 불필요한 오해를 만들어내고 있다.

• 두 번째로, 인공지능을 만드는데 도구가 되는 기술과 인공지능 기술을 혼동함으로써 인공지능 기술이 실제 비즈니스에 적절하게 활용되는 것을 더 어렵게 하고 있다.

• 세 번째로, 우리가 아직 우리 두뇌와 지능에 대한 지식이 부족하지만 일부 요소 기술들을 지나치게 앞세워 이 기술들만 잘 쓰면 사람과 같이 생각하고 행동하는 인공지능을 금방이라도 만들 수 있을 것처럼 생각하는 것이 인공지능을 적절하게 사용하는 것을 더 어렵게 하고 있다.

지난 2020년 7월 13일 자 “이코노미스트(The Economist)”지에서는 인공지능 기술의 가을이 벌써 오고 있다고 진단했으나, 지난 2차 인공지능 겨울과 같은 혹독한 발전의 정체는 오지 않을 것으로 진단했다[31-38]. (이번 글의 지면이 제한되어 있어 이 기사의 내용과 함께 이에 대한 분석은 추후에 다시 다루기로 한다.) 그렇지만, 앞에서 다룬 것과 같은 지나친 낙관과 기대는 사람들이 다시 인공지능 기술에 대한 회의와 오해를 가지게 하여 인공지능 기술의 긍정적인 발전을 정체시킬 수 있다.

지금 우리는 사람과 같이 생각하고 자율성을 가진 완성된 인공지능 기술이 주는 기회와 위험에 대해서 생각해야 할 시기가 아니라, 오히려 인공지능 기술이 완성되기 전에 오는, 우리가 우리의 두뇌와 지능에 대해 불완전한 지식과 이해를 가진 상태에서 만들게 될 과도기적인 인공지능 기술이 우리에게 끼칠 수 있는 피해와 문제에 대해 고민하고 대처해야 한다.

지금 인공지능 전문가들이 가장 걱정하는 문제는 사람과 같은 윤리 의식을 갖추지 못한 인공지능이 탑재된 킬러 머신에 의한 무차별적인 인명 살상, 사람의 해석이 불가능한 인공지능 기술이 내린 자동화된 의사 결정에 의해 나타날 수 있는 피해와 차별 그리고, 현재 시점에서 결코 완벽할 수 없는 인공지능의 불완전함 때문에 올 수 있는 자동화된 기계의 예측할 수 없는 결함과 고장 때문에 발생할 혼란과 피해와 같은 인공지능의 불완전함 때문에 오는 문제들이다.

이런 상황에서 인공지능 기술이 우리에게 줄 수 있는 혜택과 가능성에 대해 지나친 낙관과 기대를 품는 것보다 좀 더 현실적이고 객관적으로 평가하고 활용하는 시각이 필요하다. 이런 측면에서 앞으로 두세 차례에 걸쳐 빅데이터 비즈니스와 데이터 과학, 사이버 물리 시스템과 인공지능 기술과의 관계와 전망에 대해서 살펴보려고 한다.

사이버 물리 시스템의 여러 구성 요소 중에서 가장 미래를 전망하기 어려운 기술이 인공지능 기술이지만, 빅데이터 비즈니스와 사이버 물리 시스템의 두뇌로서 중요한 역할을 하게 될 인공지능 기술을 어떻게 생각하고 활용하는 것이 좋을지 최근 동향과 사례를 중심으로 같이 생각해보도록 하자.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] Yann LeCun on Deep Learning and Brain, Yann LeCun’s Facebook, December 11, 2017. https://www.facebook.com/yann.lecun/posts/10154948630217143 .
[3] Yann LeCun, “ Deep Learning and the Future of AI”, CERN Colloquium, March 24, 2016. (https://indico.cern.ch/event/510372/).
[4] 김진철, “김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (1)”, CIO Korea, 2017년 9월 25일자. (http://www.ciokorea.com/column/35688)
[5] “Artificial neural network – Wikipedia” (https://en.wikipedia.org/wiki/Artificial_neural_network)
[6] 과학기술정보통신부, “인공지능 국가 전략”, 대한민국 정책브리핑, 2019년 12월 17일. (http://www.korea.kr/news/pressReleaseView.do?newsId=156366736
[7] 과학기술정보통신부 및 관계부처합동, “인공지능 국가 전략”, 2019년 12월 17일.
(http://www.korea.kr/common/download.do?fileId=190114031&tblKey=GMN
[8] 김지나, “[AI국가전략] 최기영 “반도체 등 강점 키워 선제적 지원할 것”, 뉴스핌, 2019년12월17일. (https://www.newspim.com/news/view/20191217000783)
[9] 김디모데, “최기영 ‘1조 투입해 인공지능 반도체에서도 세계 1위 하겠다’”, BUSINESS POST, 2019sus 12월 17일. (http://m.businesspost.co.kr/BP?command=mobile_view&num=155685)
[10] 황민규, “최기영 과기정통부 장관 ‘세계 흐름에 뒤처진 AI 기술, 집중 육성할 것’” – Chosunbiz > 테크 > 일반/정책”, 2019년 11월 18일. (https://biz.chosun.com/site/data/html_dir/2019/11/18/2019111802253.html)
[11] 곽도영, 윤신영, 입력 “[단독]최기영 과기 ‘AI학과 교수들 사기업 겸직 허용…AI 산업협력 강화’” donga.com, 동아사이언스, 2019년 11월 1일. (https://www.donga.com/news/It/article/all/20191101/98168255/1)
[12] 최종원, “광주 AI집적단지 방문한 최기영 장관 ‘인공지능과 데이터는 4차 산업혁명 핵심 원동력’” – 위키리크스한국, 2020년 1월 29일.  (http://www.wikileaks- kr.org/news/articleView.html?idxno=76088)
[13] 김인한, “AI로 국가 개조···455조원 효과 만든다 -헬로디디”, HelloDD.com, 2019년 12월 17일. (https://www.hellodd.com/?md=news&mt=view&pid=70604)
[14] Ian Sample, “Scientists plan huge European AI hub to compete with US”, The Guardian, April 23, 2018. (https://www.theguardian.com/science/2018/apr/23/scientists-plan-huge-european-ai-hub-to-compete-with-us
[15] Éanna Kelly and Nicholas Wallace, “New artificial intelligence lab aims to keep top minds in Europe”, Science | Business, December 13, 2018. (https://sciencebusiness.net/news/new-artificial-intelligence-lab-aims-keep-top-minds-europe)
[16] Jeremy Kahn, “Technology Top Computer Scientists Form European Lab Devoted to AI”, Bloomberg.com, December 7, 2018. (https://www.bloomberg.com/news/articles/2018-12-06/top-computer-scientists-form-european-lab-devoted-to-ai)
[17] Holly Else, “Europe’s AI researchers launch professional body over fears of falling behind”, Nature, News, December 11, 2018. (doi: 10.1038/d41586-018-07730-1, https://www.nature.com/articles/d41586-018-07730-1)
[18] Wikipedia – European Laboratory for Learning and Intelligent Systems. (https://en.wikipedia.org/wiki/European_Laboratory_for_Learning_and_Intelligent_Systems)
[19] “ELLIS Letter | European Lab for Learning & Intelligent Systems”, (https://ellis.eu/letterhttps://ellis.eu/letter)
[20] “Press | European Lab for Learning & Intelligent Systems”, (https://ellis.eu/press)
[21] “European Laboratory for Learning and Intelligent Systems – Wikipedia”, (https://en.wikipedia.org/wiki/European_Laboratory_for_Learning_and_Intelligent_Systems
[22] “AI experts from across Europe assembled in new units”, University of Oxford – News and Events, December 11, 2019. (https://www.ox.ac.uk/news/2019-12-11-ai-experts-across-europe-assembled-new-units)
[23] “European Laboratory for Learning and Intelligent Systems (ELLIS) launched with Informatics researchers on board | The University of Edinburgh”, (https://www.ed.ac.uk/informatics/news-events/stories/2018/ellis-launched-informatics-researchers)
[24] Linda Behringer, “ELLIS Society Founded | European Lab for Learning & Intelligent Systems”, ELLIS Society – Press Release, December 6, 2018. (https://ellis.eu/en/news/ellis-society-founded)
[25] M. Mitchell Waldrop, “Computer modelling: Brain in a box”, Nature 482, p. 456–458 February 23, 2012. (doi:10.1038/482456a, https://www.nature.com/news/computer-modelling-brain-in-a-box-1.10066)
[26] Alison Abbott, “Europe’s next €1-billion science projects: six teams make it to final round – AI enhancement and a virtual time machine are included in the shortlist of pitches”, Nature 566, 164-165, February 11, 2019. (doi: 10.1038/d41586-019-00541-y) (https://www.nature.com/articles/d41586-019-00541-y)
[27] “Europe should hold fast to its scientific ambitions – The EU’s fresh round of billion-euro Flagship research projects must be open to all types of science”, Nature 540, 483, December 22, 2016. (doi:10.1038/540483a) (https://www.nature.com/news/europe-should-hold-fast-to-its-scientific-ambitions-1.21207)
[28] Alison Abbott, “Brain-simulation and graphene projects win billion-euro competition – European Commission favours efforts to model the mind and to develop new materials”, Nature 540, 483,  December 22, 2016. (doi:10.1038/540483a) (https://www.nature.com/news/europe-should-hold-fast-to-its-scientific-ambitions-1.21207
[29] Elizabeth Gibney, “Europe plans giant billion-euro quantum technologies project – Third European Union flagship will be similar in size and ambition to graphene and human brain initiatives,” Nature 532, 426, April 28, 2016. (doi:10.1038/nature.2016.19796) (https://www.nature.com/news/europe-plans-giant-billion-euro-quantum-technologies-project-1.19796)
[30] “FET Flagships | Horizon 2020”, The European Commission, (https://ec.europa.eu/programmes/horizon2020/en/h2020-section/fet-flagships)
[31] “Reality Check – An understanding of AI’s limitations is starting to sink in”, , The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in)
[32] “Algorithms and armies – Businesses are finding AI hard to adopt”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/businesses-are-finding-ai-hard-to-adopt)
[33] “Not so big – For AI, data are harder to come by than you think”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/for-ai-data-are-harder-to-come-by-than-you-think
[34] “An AI for an eye – The potential and the pitfalls of medical AI”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/the-potential-and-the-pitfalls-of-medical-ai
[35] “Machine, learning – The cost of training machines is becoming a problem”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem
[36] “Road block – Driverless cars show the limits of today’s AI”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/driverless-cars-show-the-limits-of-todays-ai
[37] “Autumn is coming – Humans will add to AI’s limitations”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/humans-will-add-to-ais-limitations
[38] 정지훈, “[정지훈 해제] “굿모닝 AI”…곧 가을이 온다는데 딥러닝은 잘되고 있겠죠?”, 피렌체의 식탁, 2020년 7월 9일. (https://firenzedt.com/?p=8005)

김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. dl-ciokorea@foundryco.com