자세히 보기

By Kim Jin Cheol

김진철의 How-to-Big Data | 빅데이터와 인공지능 (4)

LHC 실험과 뉴로모픽 엔지니어링 LHC 실험과 같은 거대과학 실험 장치는 건설에만 10~20년이 걸리고, 대량 생산을 위한 물건이나

LHC 실험의 요구사항도 실험 계획 초반과 LHC 가속기 완공 시점, 그리고 지금의 요구사항이 모두 다르다. 사실은 LHC 가속기가 건설되고 운영되는 과정에서 가속기와 검출기, 그리고 실험에서 요구되는 기술적인 요구 사항의 수준이 계속 높아져 왔다. 특히 실험 데이터 분석에 필요한 데이터의 양과 처리 속도, 복잡성의 정도는 크게 높아지고 있다. 지난 연재에서도 소개했듯이 고광도 LHC(High-Luminosity LHC; HL-LHC)로 LHC 가속기가 업그레이드되면 검출기에서 발생하는 데이터의 양이 기하급수적으로 증가하게 되는데, 2019년에는 2016년에 생성된 데이터의 4배에 이르는 293PB, 2028년에는 2016년에 생성된 데이터의 52배에 이르는 3.8EB에 이를 것으로 추정된다. 이는 LHC 실험이 계획되던 1992년에는 검출기 데이터가 1PB, 그리고 LHC 가속기가 완공되던 시점인 2008년도에는 연간 15PB로 데이터양이 추정되던 것에 비교하면 급격하게 빅데이터 요구 사항의 수준이 높아지고 있다.

LHC 실험의 요구 사항이 이렇게 지속해서 높아지는 배경에는 여러 가지 요소가 있는데, 그중에서 중요한 것은 실험이 진행되면서 근본 입자들에 조사해야 할 물리학적 질문들이 더 많아지고 복잡해지는 것과, LHC 가속기에 쓰이는 기술이 정체되어 있지 않고 더 향상되고 발전한다는 것이다.

1992년 당시에도 통계적 패턴 인식 기술을 포함해 사람의 두뇌를 모방하려는 뉴로모픽 VLSI 프로세서 기술이 있었으나 딥러닝과 딥러닝 전용 프로세서, 새로운 뉴로모픽 프로세서들이 쏟아져 나오는 요즘과 비교하면 그 기술의 수준과 복잡도가 매우 낮았다. LHC 실험이 계획되던 1992년의 컴퓨팅 기술과 딥러닝 및 인공지능 기술, 새로운 프로세서와 메모리 기술이 급격하게 발전하는 2018년을 비교해보면, 현재의 기술로 LHC 실험에서 탐구할 수 있는 물리학적 현상의 범위와 깊이가 훨씬 더 넓고 깊다. 이런 이유로 LHC 가속기와 검출기들은 3단계에 걸쳐서 업그레이드되고, 이런 장치 업그레이드를 통해 탐구하려는 입자 물리학적 현상과 그 원리의 범위를 더 넓혀가고 있다.

최근 컴퓨팅 프로세서 기술의 발전은 다양화되고 그 발전 정도도 급격하게 빨라지고 있다. 딥러닝 때문에 주목받기 시작한 GPGPU 기술은 엔비디아의 주도로 1~2년 만에 GPGPU 프로세서 안에 집적되는 연산 코어가 2배 가까이 증가하여 현재 출시된 볼타(Volta)아키텍처 기반의 GPGPU는 테슬라(TESLA) 제품의 경우 GPU 하나당 32비트 유동 연산 코어가 5120개로 그 이전 제품인 파스칼(Pascal) GPU의 3584개에 비해 2배 가까이 많아졌다. 비록 최근에 생산이 중지되기는 했지만, GPGPU에 맞서 인텔이 내놓았던 나이츠 랜딩(Knights Landing) CPU의 경우에는 옴니패스(OmniPath)라는 고성능 네트워크 인터페이스가 내장되고 72코어의 연산 코어가 집적되었다.

딥러닝 연산을 모바일 장치에서 가속하여 다양한 인공지능 응용 프로그램을 지원하기 위한 프로세서들이 개발되었는데, 대표적인 것으로 무선통신 칩기술로 유명한 퀄컴의 신경 처리 유닛(Neural Processing Unit; NPU)이 스냅드래곤 칩에 적용되기 시작하였으며, 구글은 딥러닝에 많이 쓰이는 텐서 연산을 가속하기 위한 텐서 프로세싱 유닛(Tensor Processing Unit; TPU)이라는 딥러닝 전용 프로세서를 개발하였다. 이번 연재에서 소개할 IBM의 트루노스(TrueNorth) 프로세서와 MIT에서 개발한 저전력 딥러닝 전용 프로세서인 아이리스(Eyeriss)는 딥러닝 연산에 적합하도록 아예 집적회로 수준의 아키텍처를 새롭게 설계한 프로세서 기술이다(그림 1).

IBM의 트루노스와 MIT 아이리스 프로세서와 함께 딥러닝의 선구자인 뉴욕대의 얀 르쿤 교수는 컨볼루션 신경망 연산 전용 프로세서인 뉴플로우(NeuFlow)라는 프로세서를 개발하기도 하였다. 스탠포드 대학교에서는 뉴로모프(Neuromorph)와 브레인스톰(Brainstrom)이라는 뉴로모픽 프로세서 기술을, 영국 맨체스터 대학이 주도하는 인간 브레인 프로젝트(Human Brain Project)는 스피네이커(Spinnaker)라는 뉴로모픽 프로세서를 개발하였다. 독일의 하이델베르그 대학에서는 신경망 회로에 유연성을 제공할 수 있는 신경가소성(neuroplasticity)을 모델링한 아날로그 뉴로모픽 프로세서인 스파이키(Spikey)를 개발하기도 하였다(그림 2).

최근에는 구글을 중심으로 양자 컴퓨팅 프로세서를 기계 학습 기술에 적용하려는 연구도 진행되고 있다. 양자 컴퓨터를 처음으로 상용화하여 판매하기 시작한 캐나다의 디웨이브 시스템즈(D-Wave Systems)의 양자 컴퓨터는 2010년 출시한 첫 제품 D-Wave One 시스템 때에는 256큐빗 연산을 할 수 있었으나, 현재 제품인 D-Wave 2000Q 시스템은 2048큐빗 연산을 수행할 수 있다. 양자 컴퓨팅을 이용한 딥러닝 및 기계 학습 기술의 급격한 발전이 곧 눈앞에 현실이 될 것으로 보인다.



최근 LHC 연구자들은 이렇게 급격하게 발전하는 컴퓨팅 프로세서 기술들을 LHC 빅데이터 처리에 활용하기 위한 연구를 진행하고 있다. 특히, 딥러닝을 이용한 이벤트 데이터 필터와 재구성 연산을 위해 인텔 제온 파이 프로세서와 같은 매니코어 CPU와 엔비디아의 GPGPU를 활용하는 연구는 매우 활발하게 진행되고 있다. 최근에는 뉴로모픽 프로세서를 검출기의 레벨 1(Level-1) 트리거에 적용하여 중요한 입자 물리학적 이벤트의 검출 확률을 높이려는 연구도 수행하고 있다. 이번 글에서는 IBM에서 개발한 트루노스(TrueNorth) 뉴로모픽 프로세서를 이용해 레벨 1(Level-1) 트리거의 이벤트 재구성 연산에서 중요하게 쓰이고 있는 칼만 필터(Kalman Filter)의 성능을 높이려는 연구를 한 결과를 간단하게 소개해보려고 한다[13-14].



LHC 가속기의 네 개의 대표적인 검출기 중 하나인 아틀라스(ATLAS) 검출기는 CMS와 함께 LHC 검출기를 대표하는 두 대의 다목적 범용검출기이다. 예전의 다섯번째, 열두번째 글에서 소개한 바와 같이, 입자의 궤적을 기록하기 위해 ATLAS 및 CMS 검출기에서 실리콘 픽셀 검출 장치를 사용한다. ATLAS 검출기의 경우 트래커의 구조는 조금 더 복잡해서, 픽셀 검출기(pixel tracker), 실리콘 스트립 검출기(semiconductor silicon-strip tracker; SCT), 전이 방사 추적기(Transition Radiation Tracker; TRT)로 구성되어 있으며, 이들 세 트래커 구성요소를 합쳐 배럴 내부 트래커(Barrel Inner Tracker)라고 한다[13].

이들 트래커 센서에 입자들이 지나면서 발생하는 전기 신호를 수집한 데이터는 단순한 점들의 집합이다. 이들 점들을 클러스터링하여 같은 입자에서 발생한 궤적, 이벤트로 재구성하고 연결하는 작업을 레벨-1(Level-1) 트리거의 전자회로와 임베디드 컴퓨팅 장비에서 수행하게 된다. 픽셀 검출기, 실리콘 스트립 검출기의 세 개의 점들을 이용해 입자의 이벤트를 재구성하기 위한 씨앗(seed) 이벤트 신호를 구성하게 되는데, 이때 만드는 씨앗 이벤트 데이터를 세 개의 데이터 포인트로 구성된다고 해서 트리플렛(triplet)이라고 한다.

트리플렛으로 구성된 씨앗 데이터를 이용해 픽셀 검출기, 실리콘 스트립 검출기, 전이 방사 추적기의 배럴 내부 트래커의 모든 센서 레이어에 기록된 데이터 점들을 이어 이벤트로 재구성하게 되는데, 이때 씨앗 데이터를 이용해 데이터 점들을 이어 이벤트로 재구성하기 위해 조합 칼만 필터(combinatorial Kalman filter)를 사용하게 된다.

칼만 필터는 선형 매트릭스 연산을 통해 재귀적으로 정의되어 임베디드 시스템에서 구현되어도 연산에 많은 리소스가 필요하지 않다는 장점이 있으며, 요즘 딥러닝으로 다시 알려진 신경망 알고리즘과의 관계가 명확하고 신경망을 칼만 필터 알고리즘으로 표현하기 쉽다는 장점이 있어서 임베디드 시스템에서 고급 신호 처리에 많이 쓰이는 알고리즘이다.

스톡홀름 대학의 레베카 카니(Rebecca Carney) 박사는 미국 로런스 버클리 국립 연구소(Lawrance Berkeley National Laboratory)의 ATLAS 실험 그룹과 IBM 트루노스(TrueNorth) 개발팀의 지원으로 IBM에서 개발한 뉴로모픽 프로세서인 트루노스(TrueNorth)를 이용해 위에서 설명한 ATLAS 검출기의 배럴 내부 트래커의 이벤트 재구성에 쓰이는 조합 칼만 필터 연산을 구현하는 프로젝트를 진행하였다. 그 결과가 최근 그녀의 학위 논문과 2017년 프랑스 오르세이 소재 국립 선형 가속기 연구소에서 열린 지능형 트래커 검출기 공동 학술회의(Connecting the Dots/Intelligent Tracker 2017)에서 발표되었는데, 그 결과를 간단하게 소개하면서 뉴로모픽 프로세서가 LHC 빅데이터 처리에 가지는 의미를 간단하게 살펴보자.



IBM의 트루노스 뉴로모픽 프로세서는 미국 방위고등연구계획국(Defense Advanced Research Projects Agency; DARPA)의 ‘시냅스(SyNAPSE)’ 프로그램을 통해 IBM에서 개발되었다. 트루노스 프로세서는 인간의 두뇌가 수행하는 연산을 좀더 효율적으로 저전력으로 수행하는 신경모방(neuromorphic) 연산 아키텍처를 새롭게 만들어보고자 하는 목표로 디자인되고 만들어졌으며, 이런 이유로 최근 많이 나오고 있는 딥러닝 전용 가속 프로세서와 유사한 용어를 사용하기는 하지만, 그 구현 아키텍처는 전혀 다른 모습을 가지고 있다.

IBM의 트루노스 프로세서는 그림 3과 4에서 보이는 것과 같이 NS1e 보드에 장착되어 하나의 컴퓨터 모듈로서 동작하며, 연산과 모듈을 제어하는 로직이 탑재된 ZYNQ SoC FPGA 칩과 Ethernet, USB, UART 등의 통신 인터페이스, 그리고 트루노스 프로세서와 트루노스 프로세서가 구동하기 위해 필요한 기타 회로와 버스로 구성되어 있다.

트루노스 프로세서는 트루노스 코어가 가로 64개, 세로 64개의 정방형 격자 형태로 배치되어 있고, 각 트루노스 코어는 내부 통신 패브릭을 통해 서로 연결되어 있다. 하나의 트루노스 코어는 연산 결과를 저장하기 위한 메모리 모듈, 연산 과정을 제어하기 위한 제어 모듈(Controller), 연산 명령 수행에 필요한 자원(resource)를 할당해주는 스케줄러(Scheduler) 모듈, 그리고 신경계의 동작을 모방한 뉴런(Neuron) 모듈과 뉴런 간 데이터 교환 경로를 만들고 스위치해주는 라우터(Router)로 구성되어 있다. 하나의 트루노스 코어에서 통 256개의 뉴런과 축색돌기 또는 액손(Axon)만을 만들 수 있기 때문에, 이보다 큰 신경망을 트루노스에서 연산시키기 위해서는 트루노스 코어 간에 신경망 연산 모델을 병렬로 배치하고 병렬 연산을 하도록 특별하게 프로그래밍해주어야 한다.

보통 뉴로모픽 프로세서는 신경 세포가 만드는 전기 신호인 활동 전위(action potential)와 그 활동 전위가 신호로서 다루어지게 되는 스파이크(spike) 신호의 생성 및 처리를 아날로그 회로로 구현하는 경우가 많다. 그러나, 트루노스 프로세서는 신경계의 작동 기전(mechanism)중 스파이크 신호의 기전만을 차용해 신호는 스파이크 형태의 신호로 내보내고, 신경회로는 뉴런, 액손, 그리고 뉴런과 액손을 연결해서 시냅스를 구현하는 크로스바(cross-bar)라고 불리는 요소들을 디지털 회로로 구현해 신경계의 정보처리를 모방하도록 설계하였다(그림 5).



스톡홀름 대학의 레베카 카니 박사는 트루노스 프로세서 개발 도구인 “코어렛 개발 환경(Corelet Programming Environment; CPE)”라 불리는 하드웨어 기술 언어(Hardware Description Language; HDL)와 트루노스 뉴로-시냅틱 시뮬레이터(TrueNorth Neuro-Synaptic Simulator; NCSC), 그리고 MATLAB을 사용하여 프로그램하였다.

트루노스는 원래 딥러닝을 지원하기 위해 딥러닝 개발 프레임워크로 잘 알려진 Caffe의 확장 버전인 Tea를 지원하였으나, 2016년부터는 Tea에 대한 지원을 중단하고 “에너지 효율적인 심층 뉴로모픽 네트워크(Energy-Efficient Deep Neuromorphic Network; Eedn)”이라 불리는 새로운 딥러닝 개발 도구를 이용해 심층신경망과 딥러닝을 트루노스 프로세서에서 연산할 수 있도록 지원하기 시작하였다. 레베카 카니 박사는 이 Eedn이라 불리는 딥러닝 개발 도구는 사용하지 않았다. 트루노스의 특성상 Eedn을 통한 딥러닝 연산 성능을 평가하는 연구도 흥미로운 주제였을 것으로 보이지만 앞으로 후속 연구가 진행될 것으로 보인다[14].


 


레베카 카니 박사는 ATLAS 검출기에서 사용하는 칼만 필터 모델을 아주 단순화한 모델로 표현하여 그림 5에 나타난 칼만 필터 연산을 위에서 소개한 CPE와 NCSC를 이용해 개발, 평가하였다. 그 결과를 요약하면 다음과 같다[13].

1. 칼만 필터 연산을 트루노스 아키텍처로 구현하고, 칼만 필터가 병렬 연산이 되도록 구현하는 것까지는 성공하였으나, 트루노스로 구현된 칼만 필터가 ATLAS 검출기의 Level-1 트리거에서 요구되는 성능을 발휘하기에는 연산 시간(latency)과 데이터 표현 정밀도 측면에서 많이 부족하였다. 연산 시간을 줄이기 위해서는 어쩔 수 없이 입력 데이터 및 시냅스 가중치 표현의 정밀도를 줄일 수밖에 없는데, 이렇게 되면 구현된 칼만 필터의 연산 정확도가 떨어지게 된다.

2. 트루노스 프로세서는 신경세포의 활동전위에 해당하는 스파이크 신호를 디지털 값으로 표현하게 되어 있는데, 트루노스 프로세서에서 처리할 신호를 디지털 스파이크 신호로 바꾸어 처리하게 되면 연산 시간(latency)과 데이터 표현 정밀도 측면에서 불리한 점이 많았다. 디지털 스파이크 신호보다는 아날로그 방식으로 스파이크 신호를 처리하는 뉴로모픽 프로세서들이 처리 시간과 데이터 표현 정밀도 측면에서 더 유리하다.

3. 트루노스의 내재된 병렬 연산 아키텍처를 활용해 칼만 필터 연산을 병렬화해서 연산 시간을 줄일 수 있었으나, 2배 이상 연산 시간을 줄이는 것은 어려웠다. 병렬화로 인한 연산 성능 향상은 근본적으로 한계가 있다. 또한 병렬 연산을 하도록 프로그램하면 트루노스 프로세서의 아키텍처 상 필연적으로 데이터 표현 정밀도를 낮출 수밖에 없어서 병렬화로 인한 연산 시간 단축과 데이터 표현 정밀도 향상의 두 가지 측면을 적절하게 타협하여 개발자가 칼만 필터 디자인을 선택해야 한다.

위와 같은 측면에서 레베카 카니 박사는 트루노스 뉴로모픽 프로세서가 흥미로운 새로운 아키텍처의 프로세서 기술이기는 하지만, 앞으로 다가올 HL-LHC 시대의 ATLAS 검출기에서 더 많은 이벤트 데이터의 재구성과 필터링에 사용하기에는 성능과 정확도 모든 측면에서 부족하다고 결론을 내렸다[13].

트루노스 프로세서와 같은 새로운 아키텍처의 컴퓨팅 하드웨어 기술들이 앞으로도 개발되어 나오게 되면, LHC 연구자들은 이런 새로운 컴퓨팅 하드웨어 기술들을 이용해 HL-LHC 빅데이터 처리의 난제를 풀기 위해 노력할 것이다. LHC 빅데이터 처리 과정에는 인공지능 기술을 활용하는 데이터 처리 자동화 과정이 많기 때문에, 앞으로 트루노스와 같은 뉴로모픽 프로세서나 엔비디아의 GPGPU 기반의 테슬라, 인텔의 제온 파이(Xeon Phi) FPGA와 같은 딥러닝 전용 연산 가속 프로세서에 대한 필요성이 LHC 실험에서도 높아질 것으로 보인다. LHC 빅데이터 문제를 해결할 새로운 컴퓨팅 아키텍처가 앞으로 어떤 것이 등장하게 될지 독자 여러분들도 같이 흥미롭게 지켜보면 좋을 듯하다.

빅데이터 비즈니스에서의 새로운 컴퓨터 아키텍처의 중요성
앞서 살펴본 레베카 카니 박사의 연구와 같이 CERN과 LHC 실험 연구자들은 차세대 HL-LHC 가속기에서 발생하는 빅데이터 처리의 기술적인 난제들을 해결하기 위해 트루노스와 같은 실험적인 기술들도 활용하기 위해 적극적으로 노력하고 있다. LHC 실험 연구자들이 이런 실험적인 뉴로모픽 프로세서까지 이용하여 LHC 빅데이터 문제를 해결하려고 노력하는 현실에서 우리가 빅데이터 비즈니스와 관련해 배울 수 있는 교훈은 다음과 같다.

첫번째로, 새로운 컴퓨터 아키텍처와 기술이 해결해줄 수 있는 빅데이터 문제가 빅데이터 비즈니스를 하는 기업에게는 위기이자 기회가 될 수 있다는 점이다.

필자는 과거의 연재에서 빅데이터 비즈니스를 위해 빅데이터 인프라와 정보 시스템을 구축할 때에는 아무리 작은 규모로 투자를 하려고 노력해도 일반 기업의 입장에서는 절대 적지 않은 투자가 들어가게 마련이니 빅데이터 비즈니스에서 풀려고 하는 문제와 비즈니스 가치를 초반에 분명히 하고 최소한의 투자로 작게 빅데이터 인프라와 정보 시스템을 구축하여 비즈니스 모델을 실험해보라고 계속 강조하였다. 빅데이터 비즈니스는 그 투자 규모를 고려했을 때 스타트업보다는 대기업이 더 유리할 수도 있지만, 대기업이라 하더라도 스타트업과 같은 비즈니스 모델 검증의 마인드로 초기 투자를 시작하는 것이 바람직하다는 것이다.

이렇게 빅데이터 기반의 신사업을 시작할 때 스타트업과 같은 마인드로 작게 시작하는 것이 중요한 이유는 빅데이터를 활용할 수 있게 해주는 기술의 발전이 빅데이터 비즈니스에 주는 영향이 상당히 크기 때문이다.

LHC 실험의 경우 힉스 보존을 발견하기 위해 빅데이터 인프라와 실험 데이터 분석 시스템을 구축하는 데에 20년이 넘는 시간이 걸렸다. 이렇게 오랜 시간 동안 LHC 가속기와 ATLAS, CMS와 같은 검출기, 그리고 LHC 컴퓨팅 그리드로 대표되는 빅데이터 분석 인프라를 건설하고 구축하다 보니 이 과정에서 계속해서 발전하는 기술로 인해 초기에 분석했던 빅데이터 요구 사항이 실험 장치 건설 중에 더 높은 수준으로 상향되거나, 새롭게 개발된 컴퓨팅 기술로 인해 실험 계획 초기에 분석했던 요구 사항을 만족하기 위해 구축한 정보 시스템보다 더 작은 규모와 비용으로 원래의 요구 사항을 만족시킬 수 있게 되는 경우가 많았다.

사실 일반 기업도 끊임없는 정보 기술의 발전으로 최신 정보 기술 트렌드에 따라 비즈니스 정보 시스템을 새롭게 구축하거나 확장하는 것은 흔한 일이다. 필자의 글을 읽고 있는 여러분들도, 빅데이터 기술 트렌드를 기업의 정보 시스템과 비즈니스 모델 혁신에 어떻게 적용해야 할지 관심이 많아 그 해답을 찾고 싶어 필자의 글을 읽고 있을 것이다.

빅데이터 비즈니스의 경우 발전하는 정보 기술에 좀더 촉각을 곤두세워 대비해야 하는 이유는 빅데이터 인프라 및 정보 시스템은 복잡한 분산 컴퓨팅 시스템인 데다가 과거의 관계형 데이터베이스로 대표되는 정형화된 데이터와는 다른 양과 속도로 빠르게 쌓이는 빅데이터의 특성으로 인해 새로운 빅데이터 기술을 활용하기가 쉽지 않기 때문이다. 새로운 빅데이터 기술을 활용하는 적절한 시점을 놓치게 되면 영속적인 빅데이터 비즈니스를 유지할 수 있는 비즈니스 타이밍을 놓칠 수도 있다.

대규모의 투자를 통해 적지 않은 시간 동안 빅데이터 비즈니스 시스템을 구축하고 빅데이터 비즈니스를 막 시작했는데, 새롭게 나온 정보 기술로 인해 이제 막 시작한 스타트업이나 경쟁 회사가 자사보다 낮은 단가와 비용으로 비슷한 빅데이터 비즈니스를 시작한다고 생각해보자. 빅데이터의 특성상 이미 구축한 빅데이터 비즈니스 인프라를 단번에 교체하거나 바꾸기는 쉽지 않을 뿐만 아니라, 이미 상당한 양의 빅데이터를 수집해서 가지고 있는 경우에는 기존에 수집된 데이터를 이용해 제품과 서비스를 제공받고 있는 고객들을 유지하면서 새로운 시스템을 구축해야 한다.

CERN의 CMS 검출기의 경우, 필자가 개발에 참여했던 2006~2008년 즈음에는 CMS 검출기의 온라인 데이터 수집, 처리 분산 컴퓨팅 시스템이 CMS 검출기의 원시 데이터를 처리하기 위해 당시 최고 성능의 CPU였던 AMD의 옵테론 64비트 CPU 두 개와 당시 가장 빠른 고성능 네트워크였던 미리넷 네트워크 인터페이스 카드가 장착된 서버가 1,000여 대가 필요하였으나, 현재의 인텔 제온 프로세서와 인피니밴드 고성능 네트워크 카드를 이용하면 불과 100여 대의 서버만으로도 충분하며, 구축 비용도 크게 낮아졌다.

이런 최신 컴퓨터 기술의 발전을 고려하여 LHC 연구자들은 다가오는 HL-LHC 시대를 위해 현재 CMS 검출기를 비롯한 네 대의 검출기의 빅데이터 처리 시스템을 최신 컴퓨터 아키텍처와 기술을 기반으로 전면적으로 업그레이드하는 작업을 진행하고 있다. 하지만, 이 작업 또한 구축 후 기존 LHC 가속기 및 ATLAS, CMS 검출기와 통합해야 하고, 현재 계획된 실험을 진행하면서 빅데이터 처리 시스템을 업그레이드해야 하는 어려움이 있어서 몇 개월에서 1년의 단기 프로젝트가 아닌 3~5년의 중장기 프로젝트로 진행되고 있다. 전 세계 각국의 정부가 예산을 지원하는 LHC 실험의 경우에도 이렇게 어려운 과정을 거쳐 빅데이터 시스템 업그레이드를 진행하는데, 빅데이터 비즈니스 시스템의 운영에 따라 비즈니스의 성패와 조직의 흥망이 달린 기업의 경우 빅데이터 시스템의 교체나 업그레이드가 더 신중할 수밖에 없을 것이다.

앞의 LHC 실험의 사례를 들어 설명했듯이 새로운 빅데이터 기술과 컴퓨터 아키텍처를 가진 IT 장비를 이용해 더 적은 비용과 규모로 빅데이터 비즈니스 시스템을 구축하여 데이터 기반 상품과 서비스를 제공하게 된다면 당연히 더 저렴한 비용으로 지능적인 서비스를 고객들에게 제공할 수 있어 기업의 입장에서는 원가 경쟁력이 올라갈 수밖에 없다. 이렇게 새로운 컴퓨터 아키텍처와 기술의 시스템으로 서비스 단가를 낮출 수 있는 장점도 있으나, 이런 새로운 시스템으로 기존의 빅데이터 시스템을 전환하는데 드는 비용이 더 들 수 있기 때문에 새로운 컴퓨터 아키텍처와 기술을 빅데이터 비즈니스가 한창 성장하는 과정이나 진행되는 과정에서 도입하는 것이 더 어려울 수도 있게 된다.

이렇게 기존의 데이터를 유지하면서 새로운 빅데이터 기술을 적용하고, 그리고 다시 새로운 빅데이터 비즈니스 정보 시스템으로 데이터를 마이그레이션하여 비즈니스 정보 시스템을 업그레이드하는 데에 많은 시간과 비용이 발생할 수 있으며, 경우에 따라서는 전사적인 범위의 비즈니스 인프라 개편이 필요할 수 있다. 이렇게 빅데이터 비즈니스 정보 시스템을 변경, 개선하는 데에 들어갈 수 있는 시간과 비용으로 인해 비즈니스 기회를 놓칠 수 있기 때문에 빅데이터 비즈니스 조직에는 새로운 빅데이터 기술과 컴퓨터 아키텍처가 생각보다 큰 위험 요인이 될 수 있다.

느슨하고 확장성 있는 통합을 구현할 수 있는 서비스 지향 아키텍처로 빅데이터 정보 시스템을 구축하는 것이 중요한 이유가 바로 여기에 있다. 빅데이터 비즈니스의 경우 새로운 기술이나 컴퓨팅 아키텍처의 출현이 비즈니스 모델과 경쟁 구도에 큰 영향을 미칠 수 있기 때문에 기술의 발전에 따른 빅데이터 비즈니스 정보 시스템의 진화가 기민하고 신속하게 이루어질 수 있도록 느슨하고 확장성 있는 아키텍처로 빅데이터 비즈니스 정보 시스템이 구축될 필요가 있다.

두번째로, 빅데이터 비즈니스를 영속적으로 운영하고 성장시키고 싶은 기업과 조직에는 새로운 컴퓨터 아키텍처가 빅데이터 비즈니스에 주는 영향과 이점을 지속해서 탐구하고 새로운 컴퓨터 기술을 이용해 빅데이터 비즈니스 인프라와 비즈니스 모델을 어떻게 진화시켜 나갈지 끊임없이 고민해야 한다는 점이다.

새로운 기술이나 컴퓨터 아키텍처가 빅데이터 비즈니스에 주는 영향은 대개 빅데이터 처리 및 가공 성능 향상에 따른 비즈니스 민첩성과 확장성, 인공지능 기술의 발전에 따른 자동화 수준의 향상이다. 기존 비즈니스 정보 시스템은 조직의 업무를 체계화, 조직화하여 업무의 효율을 높이거나 보조하는 데 있는 경우가 많았다. 빅데이터 비즈니스 정보 시스템은 빅데이터 처리, 가공의 속도와 성능, 인공지능을 이용한 자동화의 정도에 따라 비즈니스 모델이 결정되거나 이들 기술의 활용 방안에 따라 서비스의 단가와 수준이 달라져 비즈니스 모델의 실행 가능성 유무가 결정되기 때문에 과거 일반 제조업이나 서비스 산업보다 정보 기술의 중요성이 훨씬 더 높다.

예를 들면 과거에는 같은 서비스를 제공하는데 10,000여 대의 서버와 이를 운영할 수 있는 데이터 센터 건설이 필요해 일반 기업의 입장에서 제공하기 어려웠던 데이터 기반 지능형 서비스(예를 들면 구글의 인터넷 검색 기반 제휴 마케팅(AdSense) 서비스)가 요즘은 불과 수십, 수백 대의 서버로 충분하다거나, 아니면 클라우드 서비스를 이용해서 금방 구축이 가능한 수준의 서비스가 되었다면, 이는 정보 기술의 수준에 따라 기업이 실행할 수 있는 빅데이터 비즈니스 모델의 한계가 근본적으로 달라진다는 것을 의미한다. 즉, 새로운 컴퓨터 아키텍처와 기술이 비즈니스 모델 그 자체를 근본적으로 규정하기도 한다는 것이다.

이와 같이 빅데이터 비즈니스는 컴퓨터 아키텍처와 기술이 비즈니스 모델의 실행 가능 여부와 그 한계까지도 결정할 수 있다. 대표적인 빅데이터 비즈니스 기업인 구글이 텐서플로 같은 오픈소스 딥러닝 소프트웨어를 직접 만들어 배포하거나 텐서 프로세싱 유닛(Tensor Processing Unit; TPU) 같은 새로운 컴퓨팅 아키텍처의 프로세서를 만들어 사용하는 것도 구글이 지향하는 웹 빅데이터 기반 비즈니스의 영속을 위해 필요한 새로운 비즈니스 모델의 발굴과 실행을 위한 것이다. 구글이 내어놓은 인공지능 연구용 TPU 클라우드 서비스나 구글 클라우드 Vision API, Video Intelligence API와 같은 클라우드 인공지능 API들은 자사의 빅데이터 비즈니스의 영속을 위해 개발하거나 도입한 기술을 다시 서비스화하여 B2B 상품화한 것이다.

세번째로, 영속적인 빅데이터 비즈니스를 위해 특정한 빅데이터 기술에 초점을 맞추기보다는 빅데이터의 수집과 이 빅데이터를 이용한 비즈니스 가치에 초점을 맞춘 비즈니스 모델에 초점을 맞추어야 한다는 것이다.

위의 두 가지 교훈에서는 빅데이터 비즈니스 모델이 빅데이터 처리를 가능하게 하는 기술과 새로운 컴퓨터 아키텍처에 의해 크게 영향을 받을 수 있음을 자세하게 설명하였다. 그런데, 왜 다시 기술보다는 비즈니스 모델에 초점을 더 맞추어야 할까? 그 이유는 빅데이터 비즈니스를 수행하는 기업도 영속적인 비즈니스를 추구해야 하는 조직이기 때문이다.

5년이나 10년 동안 한시적으로 새로운 비즈니스 모델을 실험, 검증하고 기존의 대기업에 인수, 합병되어 출구 전략을 실행하려는 스타트업과 같은 경우는 비즈니스 영속성에 대해 크게 고민하지 않아도 될지 모르겠으나, 현재의 비즈니스를 계속해서 성장시키고 유지하고 싶은 대부분 기업은 영속적인 비즈니스 모델에 대한 고민을 하지 않을 수 없을 것이다. 이런 측면에서 영속적인 빅데이터 비즈니스를 위해서는 기업의 근본이 되는 비즈니스 모델은 특정한 기술에 지나치게 의존하지 않는 근본적인 사회적 가치를 제공할 수 있어야 한다.

요즘 다양한 미디어를 통해 드러나는 경제 상황을 보면 필자는 새로운 경제 체제와 산업 구조로 재편되고 있는 전환기라는 생각을 하지 않을 수 없다. 특히 빅데이터와 클라우드, 인공지능 IoT를 포함한 첨단 정보 기술의 발전으로 기업이 생존하기 위해 필요한 역량의 수준도 그 수준이 점점 더 높아지고 있다는 것을 느낄 수 있다.

정보 기술의 진보에 따라 기업에 시장 및 산업 환경에 대해 수집할 수 있고 이해할 수 있는 정보의 양과 폭이 넓어짐에 따라서 기업이 비즈니스를 하는 방법과 방식도 크게 바뀌고 있다. 이에 따라서 제조업과 에너지 산업 등의 전통적인 사업을 하는 방법도 많이 달라지고 있을 뿐만 아니라, 이런 전통적인 사업들이 새로운 경제 체제와 산업 구조에 맞게 변화하는 것을 돕는 기술과 서비스를 파는 기업들의 출현으로 인해 산업의 구조 또한 바뀌고 있다.

첨단 정보 통신 기술로 인해 기업이 비즈니스 환경에 대해 좀더 정확하게 감지하고 이해할 수 있는 역량이 크게 향상되고, 언제나 기업 경영에서 가장 큰 어려움인 복잡한 비즈니스 환경의 불확실성을 다룰 수 있는 위험 관리의 역량이 높아지고 있다. 이로 인해, 과거에는 발견되지 못했던 새로운 비즈니스 모델과 이러한 비즈니스 모델을 통한 산업 구조의 재편도 가능해진 시대가 된 것이다.

이렇게 산업 구조가 재편될 가능성이 높아지고 있는 상황에서 재편되는 산업 구조의 핵심 비즈니스 영역을 새로운 신생 기업이 차지해서 좀더 영속적인 비즈니스를 일구어 나갈 기회가 많아졌다. 이런 트렌드의 대표적인 예가 자율주행, 로봇택시 서비스 등으로 대표되는 교통 공유 서비스 산업인데, 구글의 웨이모, 우버 등의 회사들이 앞선 기술력으로 만들어가고 있는 새로운 공유 경제 산업의 핵심 비즈니스 모델이라고 할 수 있다.

빅데이터와 인공지능 기술을 위한 새로운 컴퓨팅 플랫폼은 그 잠재력이 확인되지 않은 만큼 위험 요인일 수도 있지만, 기업들이 기존에 존재하지 않았던 비즈니스 모델을 시도할 수 있는 강력한 도구가 될 수 있다. 이런 새로운 기술의 트렌드가 어떤 식으로 발전할지를 예상하고, 이런 트렌드를 고려하여 좀더 대담하고 근본적인 비즈니스 모델을 구현하는 것을, 소위 블루오션 비즈니스를 창조하는 것을 목표로 삼는 것이 빅데이터 비즈니스 기업들이 영속적인 비즈니스를 할 수 있는 더 안전한 방법일 수 있다.

하둡이나 스파크, 텐서플로 같은 특정한 기술에 초점을 맞추는 비즈니스는 이런 도도한 변화의 큰 흐름에서는 일시적으로 생존할 수 있는 비즈니스만을 할 수 있게 할 뿐이다. 도구의 잠재력을 충분히 활용하되, 도구가 줄 수 있는 능력과 역량에 기초해서 기업이 할 수 있는 일을 생각하고, 이런 능력과 역량을 이용해서 사회 변화라는 큰 파도의 힘을 이용하는 좀더 근본적인 비즈니스 가치를 제공할 수 있는 비즈니스 모델을 대담하게 고민해보자. 지금까지 없었던 자율주행차를 이용한 차량공유 서비스와 같이 사회 변화의 큰 축을 짊어지고 함부로 흔들리지 않을 수 있는 비즈니스 모델을 고민하자.

이런 대담한 비즈니스 모델들이 대부분 기업에게는 꿈과 같은 어렵고 위험한 비즈니스 모델이라는 생각이 들지는 모르겠지만, 빠르게 발전하는 새로운 컴퓨팅 플랫폼 기술과 오픈소스 소프트웨어 기술들이 그 실현을 생각보다 빠르게 앞당기고 있다. 빅데이터 비즈니스에 크게 도움이 되고, 이런 대담한 비즈니스 모델들을 실험할 수 있게 도울 최근 컴퓨팅 플랫폼 기술의 변화에 대해 간단히 소개하는 것으로 이번 글을 정리하려고 한다.

우선 가장 눈에 띄는 컴퓨팅 하드웨어 플랫폼 기술은 앞서 소개한 뉴로모픽 프로세서 기술이다. 인간의 두뇌는 과학에서 아직도 미지의 영역으로 남아 있는 연구의 대상이지만, 또한 과학기술의 발전으로 최근 가장 많은 지식이 빠르게 쌓여가고 있는 영역이기도 하다. 뇌의 정보처리 방법을 모방한 딥러닝이 큰 성공을 거두고 있는 것도 이렇게 우리 두뇌의 정보처리 방법에 대한 이해가 늘었기 때문에 가능한 것이다.

우리 두뇌의 정보처리 메커니즘을 새로운 컴퓨터 하드웨어 기술로 만들려고 하는 뉴로모픽 프로세서 기술은 로보틱스와 인공지능을 이용한 지능형 제품과 서비스에 큰 영향을 줄 기술이다. 빅데이터 비즈니스를 하려는 기업의 경우, 뉴로모픽 프로세서는 높은 수준의 데이터 처리 자동화와 사람이 접근하거나 수행하기 어려운 환경에서의 데이터 수집과 작업을 자동화할 수 있는 능력을 갖출 수 있게 하여 훨씬 더 대담한 비즈니스 모델을 시도해볼 수 있게 한다.

엄밀하게 얘기하면 최근 심층신경망 모델 연산을 하드웨어 수준으로 가속하는 딥러닝 SoC 기술은 뉴로모픽 프로세서라고 볼 수는 없지만, 두뇌의 정보처리 메커니즘을 모델링한 심층신경망 모델의 연산을 가속하는 프로세서 기술이라는 측면에서 넓은 의미의 뉴로모픽 프로세서 기술이라고 볼 수 있다. 2018년 가트너의 최신 기술 하이프사이클에서도 이런 딥러닝 SoC 기술을 떠오르는 신기술로 선정한 바 있다.

또 하나 관심을 가지고 지켜봐야 할 새로운 컴퓨팅 하드웨어 플랫폼 기술은 바로 양자 컴퓨팅이다. 양자 컴퓨팅은 한동안 물리학자들의 머릿속에서만 존재하는 지적인 장난감 정도로만 여겨졌던 것이 사실이다. 캐나다의 D-Wave와 같이 선구적으로 양자 컴퓨터를 만드는 회사와, 구글과 IBM과 같이 최근 양자 컴퓨터 구현에 적극적인 기업들의 노력으로 생각보다 빠르게 현실로 다가오고 있다.

기존의 컴퓨터는 풀지 못했지만 양자 컴퓨터가 해결할 수 있는 문제가 어떤 문제인지는 피터 쇼어(Peter Shor)가 제안한 소수 분해 알고리즘(prime factoring algorithm)과 로브 그로버(Lov Grover)의 검색 알고리즘(Grover’s search algorithm) 외에 큰 진전이 없는 것이 사실이다. 양자 컴퓨팅의 근본인 큐빗이 가지는 내재적 병렬성(inherent parallelism)은 기존 컴퓨터의 순차적 정보처리로는 적절한 시간 안에 끝낼 수 없는 연산을 양자 컴퓨터가 수행할 수 있을 것이라는 기대를 가지게 한다. 양자 컴퓨팅 기술이 어떤 연산에서 기존의 컴퓨터보다 더 나은지를 연구하는 ‘양자 슈프리머시(quantum supremacy)’ 연구는 최근 구글과 IBM, 마이크로소프트 등의 기업들도 적극적으로 연구에 나선 중요한 주제다.

양자 컴퓨팅 기술이 중요한 이유는, 양자 컴퓨팅이 기존의 컴퓨터보다 더 잘하리 예상되는 NP(non-polynomial time algorithms) 문제들에 효과적으로 쓰일 것으로 생각되기 때문이다. 대표적인 NP문제 중 하나가 ‘영업사원 방문 문제(Traveling Salesman’s Problem; TSP)’라고 하는 최적화 문제인데, 이 TSP 문제의 해결책을 주었던 방법은 딥러닝의 근본이 된 최적화 알고리즘인 경사 지향 최적화 알고리즘(gradient-descent optimization)이다. 큐빗(qubit)의 내재적 병렬성의 특성이 TSP 문제와 같이 기존의 컴퓨터로 해결이 어려웠던 최적화 문제의 해결 가능성을 최근 보여주고 있다.

이런 양자 컴퓨팅의 가능성이 최근 양자 기계 학습(quantum machine learning)이라 불리는 새로운 영역으로 확대되고 있다. 양자 컴퓨팅이 최적화 연산에서 기존의 컴퓨터보다 우월할 것이라는 아이디어를, 기계 학습 모델의 학습에 최적화 연산이 핵심 알고리즘으로 사용되는 것에 착안해서 양자 컴퓨팅을 기계 학습 기반 인공지능의 학습에 적용해보고자 하는 것이 양자 기계 학습이다.

양자 기계 학습의 잠재력은 아직 충분하게 밝혀지지 않았지만, 양자 컴퓨팅을 이용한 최적화 알고리즘을 사용하면 기존에 많은 시간이 걸렸던 딥러닝 및 기계 학습 모델의 학습 시간을 대폭 단축하여 기계 학습 기술의 새로운 응용 기술이 탄생할 것으로 기대되고 있다. 무엇보다 인공지능이 훨씬 더 방대하고 다양한 데이터를 학습하여 사람의 지능에 근접한 지능을 가질 수 있게 할 수 있는 기술로서 양자 컴퓨팅 기술이 최근 주목받고 있다.

뉴로모픽 프로세서 기술과 양자 컴퓨팅 기술은 컴퓨터 과학자와 물리학자들의 상상 속에서만 존재하는 기술로 지난 20여 년간 여겨져 왔지만, 컴퓨터 소자 기술의 빠른 발전으로 우리에게 실질적인 도움을 줄 수 있는 기술로 빠르게 성장해가고 있다. 아직은 그 적용이 조금 이르기는 하지만, 빅데이터 비즈니스를 통해 영속적이고 근본적인 비즈니스 모델을 만들어보고자 고민하는 기업들은 관심있게 모니터링하고 그 활용에 대해 고민해야 하는 기술이다.

빅데이터를 활용하려는 데이터 과학자와 데이터 엔지니어들도 이들 뉴로모픽 프로세서 기술과 양자 컴퓨팅 기술이 줄 수 있는 지능형 데이터 처리와 자동화의 장점에 대해서 꾸준히 모니터링하고 활용 방법에 대해 미리 연구해두면 경력 개발에 많은 도움이 될 것으로 보인다. 뉴로모픽 프로세서 기술이 IoT 및 ‘편재 컴퓨팅(pervasive computing)’ 기술과 결합하면 강력한 데이터 수집 수단으로 활용할 수 있다. 양자 컴퓨팅을 이용하면 빅데이터를 활용한 빅AI, 또는 인공지능의 수준을 근본적으로 ‘양자 도약(quantum jump)’시켜 차별적인 지능형 서비스와 데이터 분석 기술을 만들 수 있다.

뉴로모픽 프로세서와 양자 컴퓨팅이 빅데이터 비즈니스에 줄 수 있는 새로운 가능성에 대해 주목하고 지금부터라도 꾸준히 활용 방법에 대해 고민한다면, 현재의 기업들도 구글이나 우버와 같은 대담한 비즈니스 모델을 실험해볼 수 있는 날이 가까운 미래에 올 것이다. 흥미로운 시대를 사는 우리에게 이들 기술이 줄 수 있는 더 많은 기회에 대해 설렘을 가지고 기대해보는 것도 좋을 것 같다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] Jincheol Kim, “Towards Singularity: Computing Technology Advances for Artificial Intelligence
– Trends in H/W, S/W and TensorFlow,” Global Mobile Vision 2017, KINTEX, September 13, 2017.
[3] DANIEL TERDIMAN, “IBM’s TrueNorth processor mimics the human brain,” CNet.com, 11:00 AM PDT AUGUST 7, 2014. (https://www.cnet.com/news/ibms-truenorth-processor-mimics-the-human-brain/)
[4] Brian Wang, “Neuromorphic and Neurosynaptic Chips,” NextBigFuture.com, October 7, 2011. (https://goo.gl/9NKTgt),
[5] Yu-Hsin Chen, Tushar Krishna, Joel Emer, Vivienne Sze, “Eyeriss – An Energy-Efficient Reconfigurable Accelerator for Deep Convolutional Neural Networks,” The MIT Eyeriss Project Website. (http://eyeriss.mit.edu/)
[6] Ryan Smith, “16GB NVIDIA Tesla V100 Gets Reprieve; Remains in Production,” anandtech.com, 8:00 PM EST, May 24, 2018. (https://www.anandtech.com/show/12809/16gb-nvidia-tesla-v100-gets-reprieve-remains-in-production)
[7] Anshel Sag, “Qualcomm’s Zeroth SDK Brings Machine Intelligence To More Than Smartphones,” Forbes.com, 09:00am, May 6, 2016. (https://goo.gl/hjhZhc)
[8] Stacey Higginbotham, “Google Takes Unconventional Route with Homegrown Machine Learning Chips,” TheNextPlatform.com, May 19, 2016. (https://goo.gl/k7vi1B)
[9] VICTORIA WOOLLASTON, “Google tries to save the world: Internet giant explains how its move into quantum computing could solve global warming,” MailOnline.com, 16:32 BST, 15 October 2013. (https://www.dailymail.co.uk/sciencetech/article-2461133/Google-D-Wave-quantum-computing-solve-global-warming.html)
[10] Tiffany Trade, “Requiem for a Phi: Knights Landing Discontinued,” HPCWire.com, July 25, 2018. (https://www.hpcwire.com/2018/07/25/end-of-the-road-for-knights-landing-phi/)
[11] Nick Heath, “Quantum leap: D-Wave’s next quantum computing chip offers a 1,000x speed-up,” TechRepublic.com, 2:15 AM PST, September 16, 2016. (http://www.techrepublic.com/article/quantum-leap-d-waves-next-quantum-computing-chip-offers-a-1000x-speed-up/)
[12] Nick Heath, “D-Wave quantum computers: Cheat sheet,” TechRepublic.com, 7:52 AM PST, July 3, 2018. (https://www.techrepublic.com/article/d-wave-quantum-computers-the-smart-persons-guide/)
[13] Rebecca Carney, “Instrumentation for silicon tracking at the HL-LHC,” Licentiate thesis, Stockholm University, May 2017. (https://cds.cern.ch/record/2268992/files/CERN-THESIS-2017-065.pdf)
[14] Rebecca Carney, “Kalman Filter on IBM’s TrueNorth,” Connecting The Dots / Intelligent Trackers 2017, LAL-Orsay, Paris, Mar 6 ~ 9, 2017.
[15] R. Fr¨uhwirth, “Application of Kalman filtering to track and vertex fitting,” Nuclear Instruments and Methods in Physics Research Section A: Accelerators, Spectrometers, Detectors and Associated Equipment 262.2 (1987), pp. 444 –450. issn: 0168-9002. doi: http://dx.doi.org/10.1016/0168-9002(87)90887-4. url: http://www.sciencedirect.com/science/article/pii/0168900287908874.
[16] Sioni Summers, “Online track reconstruction using Kalman Filters on FPGAs,” Connecting
the Dots and Workshop on Intelligent Trackers. 2017.
[17] Giuseppe Cerati et al., “Kalman filter tracking on parallel architectures,” 22nd International Conference on Computing in High Energy and Nuclear Physics (CHEP 2016), San Francisco, CA, October 14-16, 2016. 2017. arXiv: 1702.06359. url: https://inspirehep.net/record/1514547/files/arXiv:1702.06359.pdf.
[18] Karlheinz Meier, “Brain inspired computimng in the EU Human Brain Project,” Discussion,
2017.
[19] Bartosz Paprocki and Janusz Szczepanski, “Efficiency of neural transmission as a function of synaptic noise, threshold, and source characteristics,” Biosystems 105.1 (2011), pp. 62 –72. issn: 0303-2647. doi: https://doi.org/10.1016/j.biosystems.
[20] Rudolph Emil Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Transactions of the ASME–Journal of Basic Engineering 82.Series D (1960), pp. 35–45.
[21] Jeroen Schouwenberg, “Kalman Filter Trained Look-Up Tables for the ATLAS Level-1 Topological Missing Transverse Energy Trigger,” MA thesis. Radboud University, 2014.
[22] O. Welch and G. Bishop, An introduction to the Kalman filter, Tech. rep. TR 95-041. UNC-CH, 1995. url: http://www.cs.unc.edu/˜welch/kalman/kalmanIntro.html.
[23] Simon Hayik, Kalman Filtering and Neural Networks, Wiley, 2001. ISBN: 9780471369981.
[24] Chris Eliasmith, Neural Engineering: Computation, Representation, and Dynamics in Neurobiological systems. A Bradford Book, 2004. ISBN: 9780262050715.
 

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. dl-ciokorea@foundryco.com