지난 마흔 한 번째 글에서 사물인터넷(IoT)이 예전에 비슷한 의미로 등장했던 용어인 유비쿼터스 센서 네트워크(Ubiquitous Sensor
사물인터넷(IoT)이 확산되면서, 사물인터넷(IoT)으로 연결되는 사물들의 지능을 높이는 기술로서 에지 컴퓨팅(Edge computing)의 중요성과 의미를 같이 살펴보았다. 모바일 에지 컴퓨팅(Mobile Edge Computing; MEC)은 5G와 5G 이후의 이동통신 기술에서 저지연(low latency) 서비스를 지원하기 위한 컴퓨팅 인프라 및 서비스로서 이동성(mobility)을 제공하는 점이 에지 컴퓨팅과 다르다고 강조하였다.
에지 컴퓨팅(Edge computing)은 모바일 에지 컴퓨팅과 같은 인프라 기술이라기보다는 사물인터넷(IoT)을 통해 인터넷으로 연결된 지능형 서비스 생태계에서 에지 네트워크 영역에 위치하게 되는 사물들이 고성능 임베디드 컴퓨터와 소형화된 통신 하드웨어의 덕으로 지능화되면서 실시간 고성능, 분산 병렬 컴퓨팅 시스템으로 발전하는 경향을 표현하는 말이라고 설명하였다.
이번 글에서는 사물인터넷(IoT), 에지 컴퓨팅(Edge computing) 사례를 같이 살펴보면서, 사물인터넷(IoT)과 에지 컴퓨팅(Edge computing)이 사이버 물리 시스템과 미래 빅데이터 비즈니스의 발전에 어떻게 영향을 미치고 있는지 좀 더 구체적으로 같이 생각해보려고 한다.
사이버 물리 시스템, 빅데이터, IoT의 미래를 보여주는 최신 동향(1) – 스마트 카메라
지난 마흔 번째, 마흔 한 번째 글에서 살펴본 것같이 초광대역(eMBB: enhanced Mobile Broadband), 초고신뢰/초저지연(URLLC: Ultra Reliable & Low Latency Communications), 대량 연결(mMTC: massive Machine-Type Communications)이 가능한 서비스를 제공하려는 5G 이동통신 기술의 발전은 사물인터넷(IoT) 디바이스가 좀 더 많은 데이터를 생산하고 다양한 디바이스와 인터넷 서비스, 사람이 사용하는 휴대용 기기와 매시업(mesh-up)되어 창발적으로 발전하도록 촉진하고 있다.
5G 이동통신 서비스의 상용화와 함께, 5G 이동통신 서비스의 초고신뢰/초저지연(URLLC: Ultra Reliable & Low Latency Communications), 대량 연결(mMTC: massive Machine-Type Communications)과 같은 특성이 주는 기대감이 임베디드 컴퓨팅 하드웨어 기술과 사물인터넷(IoT) 디바이스의 성능과 사양을 높이는 데에 기여하고 있다. 이런 임베디드 컴퓨팅 하드웨어 기술의 발전과 유무선 통신 하드웨어의 소형화 때문에 에지 컴퓨팅이라는 말로 대표되는 통신으로 연결된 사물인터넷 디바이스의 컴퓨팅 기술이 빠르게 발전하고 있다.
이런 사물인터넷(IoT)과 에지 컴퓨팅의 발전 경향을 가장 분명하게 보여주는 한 사례로 최근 구글이 내어놓은 “클립스(Clips)”라는 서비스와 디바이스를 먼저 같이 살펴보도록 하자. 구글의 “클립스(Clips)”는 구글이 만든 영상 AI 기술인 “모먼트 IQ(Moment IQ)”를 탑재한 스마트 캠으로, 필요한 곳에 세워놓거나 카메라 뒤에 달린 클립으로 끼워 고정하여 영상을 촬영할 수 있게 만든 카메라다.
구글의 “클립스(Clips)”는 아직 임베디드 하드웨어 기술의 한계 때문에 음성은 녹음하지 않고 15fps의 낮은 영상 샘플링 주파수로 영상만 기록이 가능하다. “클립스(Clips)” 자체적으로 인터넷에 연결할 수 있는 기능은 없고, Wi-Fi Direct와 Bluetooth LE를 통해 스마트폰에 연결하여 스마트폰에 설치된 “클립스(Clips)” 앱을 이용해 “클립스(Clips)” 카메라가 자동 캡처한 영상들을 열람, 편집하고 소셜 미디어에 바로 게시할 수 있다. 인터넷 연결기능이 없기 때문에 사물인터넷(IoT) 디바이스라고 할 수는 없지만, 에지 컴퓨팅이 어떻게 사물들의 지능을 높이고 바꾸어 놓는지 잘 보여주는 사례라고 할 수 있다.
구글 “클립스(Clips)”는 아쉽게도 2019년 10월 생산이 중단되었다. 구글 글래스와 같이 시대를 조금 앞서갔던 점도 있었던 것 같고, 사생활 보호를 위해 수집된 영상을 자동으로 인터넷을 통해 구글 포토와 같은 서비스로 스트리밍 하여 전송, 저장하는 기능을 일부러 넣지 않았는데 참신한 아이디어와 인공지능 기반의 자동 촬영 기능보다 이런 영상 자동 전송 기능이 사용자들에게 더 필요한 기능으로 부각되었던 것 같다.
비록 구글 “클립스(Clips)”는 구글 글래스와 같이 구글이 만든 지능형 상품 중에서 단명한 제품으로 기록에 남게 되었지만, 구글의 인공지능에 관한 기술력과 혁신의 노력을 분명하게 보여주는 제품이었다. “클립스(Clips)”와 같은 라이프 로깅(life-logging) 서비스와 관련 하드웨어 상품은 대표적인 IoT를 이용한 지능형 서비스로, 사생활 침해와 IoT 보안과 같은 기술적인 문제가 보완되면 앞으로 유망한 서비스로 발전할 것으로 보인다.
구글 “클립스(Clips)”에 적용된 “모멘트 IQ(Moment IQ)” 기술의 자동 셔터 기능과 영상에서 사용자에게 의미 있다고 생각되는 객체와 이벤트를 자동으로 추출하고, 이런 객체와 이벤트들을 학습하는 영상 인공지능 기술은 사물인터넷(IoT) 기기에서 에지 컴퓨팅이 얼마나 발전하고 중요한 역할을 하게 되었는지를 잘 보여주는 사례이다. 앞으로 에지 컴퓨팅 디바이스의 성능이 향상되면 좀 더 복잡한 지능형 데이터 처리가 사물인터넷(IoT) 기기에서 가능해질 것으로 보인다.
구글 “클립스(Clips)”와 함께 에지 컴퓨팅의 중요성을 잘 보여주는 또 하나의 사례로 “엔트로픽스(Entropix)”라는 회사의 슈퍼 레졸루션(super-resolution) 기술을 살펴보자. “엔트로픽스(Entropix)”는 2016년 설립된 미국의 스타트업으로, 영상 인공지능 소프트웨어 기술을 전문으로 하는 회사다.
이 회사가 가진 제품은 컬러 카메라와 모노크롬 카메라를 같이 이용해서 영상의 배율을 9배까지 확대할 수 있는 슈퍼 레졸루션(super-resolution) 딥러닝 소프트웨어 기술이다. 이 소프트웨어를 다양한 영상 카메라 업체에 라이선스를 주고 판매하거나, SaaS(Software as a Service) 형태로 인터넷으로 연결해서 슈퍼 레졸루션 기술을 API 형태로 이용할 수 있도록 하는 것을 비즈니스 모델로 하고 있다.
슈퍼 레졸루션 기술이 생소하신 분들은 CSI와 같은 미국 범죄 드라마나 미국 드라마 “24”와 같은 첩보물에서 영상 카메라를 확대해서 이미지 처리를 하면 흐릿했던 차 번호나 용의자의 얼굴이 선명해지는 장면에서 등장하는 기술이라고 생각하면 이해하기가 쉽다.
쉽게 얘기하면, 원거리에 있는 피사체가 영상 센서에 기록되었을 때, 원거리에 위치해 있기 때문에 영상 센서에 작게 기록되어 선명하게 보이지 않는 것을 광학적으로나 소프트웨어적으로 보정하여 피사체가 좀 더 선명하고 뚜렷하게 보이게 보정하는 기술이 슈퍼 레졸루션 기술이다.
딥러닝을 이용한 슈퍼 레졸루션 기술과 이미지 복원 기술은 최근 딥러닝 연구자들 사이에서 많은 관심을 끈 연구주제이기도 하다. 연구자들의 많은 관심을 모은 만큼, 응용 분야도 다양하고 넓어서 상품으로서 가치 있는 기술이기도 하다.
슈퍼 레졸루션 기술은 여러 렌즈를 이용한 광학 기술을 이용한 방법부터 소프트웨어적인 보정을 이용한 방법까지 다양한 방법으로 많이 연구되었던 문제지만, 최근 딥러닝을 이용한 방법이 많은 관심을 모았던 이유는 데이터로 학습만 적절하게 시켜도 큰 효과를 볼 수 있는 사례들이 많이 발표됐기 때문이다.
“엔트로픽스(Entropix)”사는 자신들의 슈퍼 레졸루션 소프트웨어가 탑재된 카메라를 직접 만들어 생산하지 않고, 자신들의 소프트웨어를 보안용 CCTV나 IoT용 카메라 등을 만드는 업체들에 라이선스를 주고 공동으로 카메라 제품을 개발하여 판매하는 비즈니스 모델을 가지고 있다.
이런 이유로 충분한 컴퓨팅 파워를 가진 에지 컴퓨터가 장착된 카메라라면 기본적으로 어떤 카메라든 슈퍼 레졸루션 기능을 가지게 만들 수 있고, 카메라의 활용 분야에 따라 얼마든지 다양한 용도로 활용될 수 있어 파급 효과가 크다.
“엔트로픽스(Entropix)”사의 슈퍼 레졸루션 기술은 기본적으로 엔비디아(Nvidia)사의 젯슨 TX-2(Jetson TX-2) 임베디드 GPU 컴퓨터를 사용한다. “엔트로픽스(Entropix)”사 슈퍼 레졸루션 기술의 특징은 컬러 카메라와 모노크롬 카메라를 같이 이용해서, 컬러 영상을 RGB CCD 센서를 통해 수집하는 과정에서 유실된 정보를 모노크롬 카메라를 통해 얻어, 이 정보를 같이 딥러닝 모델에 입력하여 영상의 선명도를 9배까지 복원하는 것이다(그림 2).
“엔트로픽스(Entropix)”사의 슈퍼 레졸루션 기술은 딥러닝을 사용하기 때문에 엔비디아의 젯슨 TX-2와 같은 고성능 에지 컴퓨터가 개발되지 않았더라면 실용화하기 힘든 기술이다. 이 때문에, 에지 컴퓨팅의 발전으로 가능한 최신 지능형 영상 처리 기술의 하나로 볼 수 있다.
“엔트로픽스(Entropix)”사의 슈퍼 레졸루션 기술과 함께 살펴보아야 할 제품은 최근 다양한 업체를 통해 출시되고 있는 IoT CCTV 및 카메라이다. 우리나라의 피플 앤드 테크놀로지와 한화테크윈이 같이 제휴하여 출시한 IoT CCTV와 ADLink사에서 최근 내놓은 에지 IoT CCTV 제품을 같이 살펴보도록 하자.
ADLink사의 에지 IoT CCTV 카메라는 엔비디아사의 젯슨 TX-2 임베디드 컴퓨터를 영상 처리용 컴퓨팅 장치로 장착한 지능형 IoT 카메라이다. 사용하는 용도에 따라서 추가로 렌즈를 장착할 수 있어 다양한 영상 촬영이 가능하다.
CCD 센서가 수집할 수 있는 영상의 해상도에 따라서 NEON-i101B(1.2M 54fps, global shutter), NEON-i102B(1.9M 60fps, global shutter), NEON-i103B(2M 30fps, rolling shutter), NEON-i104B(5M 14fps, rolling shutter) 네 종류의 제품이 있고, 영상의 해상도가 높아지면 초당 수집할 수 있는 영상 프레임의 수는 그에 따라서 낮아진다.
필자가 “엔트로픽스(Entropix)”사의 슈퍼 레졸루션 기술과 함께 ADLink사의 에지 IoT CCTV 카메라인 NEON i1000B 제품을 같이 살펴보는 이유는 에지 컴퓨팅 기술이 지능형 스마트 센서에 어떻게 결합되고 있는지 잘 보여주는 제품 사례이기 때문이다.
첫 번째로, ADLink사의 NEON i1000B 제품은 딥러닝 모델을 이용한 영상 처리와 분석을 카메라에서 실시간으로 수행할 수 있는 에지 컴퓨팅 장치인 엔비디아의 젯슨(Jetson) TX-2 컴퓨터를 탑재하고 있다. 이 엔비디아 젯슨 TX-2 컴퓨터 때문에 지능형 영상 처리를 카메라에서 직접 할 수 있어 원시 영상 데이터와 함께 좀더 풍부하고 다양한 정보를 사용자의 요구사항에 맞게 취득해서 활용할 수 있다.
두 번째로, 엔비디아사의 젯슨(Jetson) TX-2를 탑재한 것 때문에 우분투 리눅스(18.04 LTS)를 기본 운영체제로 사용하고 있다는 것이다. 임베디드 시스템에서 리눅스를 운영체제로 사용한 지는 꽤 오래됐지만 대개 공개된 리눅스 배포판과 커널을 직접 임베디드 시스템에 포팅해서 제공하는 경우가 많아서 보통 많이 사용되는 리눅스와는 환경이 다른 경우가 많았다.
반면 최근 에지 컴퓨팅 디바이스에 탑재되는 리눅스는 보통 데스크탑에서 사용하는 리눅스 배포판과 크게 차이가 나지 않는 경우가 많다. 엔비디아의 젯슨 TX-2에 탑재된 우분투 리눅스는 우분투 데스크탑 배포판과 거의 차이가 나지 않는 환경을 가지고 있고, 제트팩(Jetpack)이라는 개발 환경을 제공해서 에지 컴퓨팅용 소프트웨어를 우분투 데스크탑 리눅스에서 개발해서 젯슨 TX-2로 이식해서 사용하는 것이 어렵지 않다.
세 번째로, 이더넷 포트가 기본으로 장착되어 있어 사물인터넷으로 바로 연결이 가능하다는 것이다. 에지 컴퓨팅 장치인 젯슨 TX-2에 기본으로 탑재된 우분투 리눅스와 함께 기가비트(1Gbps) 이더넷 포트가 기본으로 장착되어 있기 때문에 이 NEON i1000B 에지 IoT 카메라가 사물인터넷을 통해 다양한 디바이스와 서비스, 컴퓨팅 인프라와 연동되어 새로운 방식으로 기능이 확장되기 용이하다. 바로 이 기가비트 이더넷 포트가 기본으로 제공되는 것 때문에 이 NEON i1000B 카메라는 에지 컴퓨팅 디바이스라고 부를 수 있게 되었다.
위와 같이 딥러닝 연산을 소화할 수 있을 정도의 컴퓨팅 파워를 제공하는 엔비디아의 젯슨 TX-2와 같은 고성능 컴퓨터를 에지 컴퓨팅 장치로 탑재하고, 리눅스 기반의 운영체제와 인터넷에 바로 연결이 가능한 이더넷 네트워크 장치를 기본적으로 탑재한 센서가 점차 확산되고 있는 것이 눈여겨 보아야 할 최근 기술 동향이다.
이렇게 고성능 에지 컴퓨터와 기가비트 이더넷과 같은 높은 대역폭의 네트워크 연결을 기본으로 제공하는 스마트 센서들이 에지 디바이스 수준에서 좀더 복잡하고 지능적으로 센서 데이터를 처리해서 서버 측으로 전송할 수 있게 되면서, 서버 측에서 이를 이용해서 더 사용자 친화적이고 복잡한 지능형 서비스를 제공할 수 있게 된다.
ADLink사의 에지 IoT CCTV 카메라인 NEON i1000B 제품에 “엔트로픽스(Entropix)”사의 슈퍼 레졸루션 소프트웨어 기술이 탑재되었다고 생각해보자. ADLink사의 NEON i1000B 카메라는 위에서 잠시 언급했던 것과 같이 기본 카메라 렌즈 외에도 용도에 따라 추가 렌즈를 달 수 있다. 추가로 망원 렌즈를 장착한 상태에서 “엔트로픽스(Entropix)”사의 슈퍼 레졸루션 소프트웨어 기술까지 탑재될 경우 이 에지 IoT 카메라가 영상을 수집할 수 있는 영역의 범위가 크게 넓어지면서, 좀더 세밀한 영상 정보 수집이 가능해진다.
“엔트로픽스(Entropix)”사의 슈퍼 레졸루션 소프트웨어 기술이 젯슨 TX-2를 기반으로 개발되었기 때문에 NEON i1000B에 탑재되는 카메라에 맞게 연산을 조금만 보정하면 바로 포팅이 가능할 정도이니 조만간 이 NEON i1000B 제품에 탑재된 “엔트로픽스(Entropix)”사의 슈퍼 레졸루션 기술을 만날 수 있을지도 모르겠다.
ADLink사의 NEON i1000B 카메라와 “엔트로픽스(Entropix)”사의 슈퍼 레졸루션 소프트웨어 기술에 한가지가 더해졌다고 상상해보자. ADLink사의 NEON i1000B 카메라에 만약 5G 이동 통신이 가능해진다면 어떻게 활용할 수 있을까? 5G 이동 통신까지는 아니더라도, Wi-Fi 6와 같은 차세대 무선 통신 기능이 들어가 있다면 어떻게 활용할 수 있을까?
5G 이동 통신이나 Wi-Fi 6와 같은 고대역폭, 저지연 무선 통신이 접목된 IoT 카메라는 카메라가 설치되어 데이터를 수집할 수 있는 공간적인 제약을 크게 줄여주어 영상 데이터 수집 범위를 크게 넓힐 수 있다. IoT 카메라 단가가 낮아지게 되면 다양한 용도의 IoT 카메라가 다양한 공간에 촘촘하게 설치되면서 수집되는 데이터의 양도 폭증하게 될 것이다.
이렇게 5G 이동 통신이나 Wi-Fi 6와 같은 무선 통신이 결합된 IoT 카메라는 관측 대상에 대한 정보의 양과 정밀도를 크게 높여 다양한 영상 기반 지능형 서비스를 가능하게 할 것이다. IoT 카메라를 통해 수집되는 영상 데이터는 지능형 서비스를 제공하는 사이버 물리 시스템의 눈의 역할을 해서 사이버 물리 시스템이 좀 더 인간과 친숙한 방식으로 상호작용하는 데 중요한 역할을 하게 될 것이다.
5G 이동 통신이나 Wi-Fi 6와 같은 차세대 무선 통신 기능이 장착된 IoT 카메라와 같은 스마트 센서는 앞으로 우리가 보게 될 IoT 장치의 미래이다. 기술적인 측면에서만 보면 현재에도 크게 불가능하지는 않지만, 생산 원가 및 운영, 유지보수비 증가와 같은 현실적인 제약과 사생활 침해에 대한 소비자들의 불안 때문에 아직 시장이 열리지 않았다고 판단되어 제품이 많이 나오지 않은 것으로 보인다.
사실 Wi-Fi 무선 네트워크를 지원하는 IP 카메라는 현재 제품이 많이 나와 있는 편이다[24-27]. SK텔레콤과 KT 모두 가정용 IP 카메라 상품을 유선 인터넷 상품과 같이 연계하여 가정용, 기업용 보안 솔루션으로 판매하고 있지만, LTE나 5G가 적용된 IoT 카메라는 아직 제품이 나오지 않았다.
이는 LTE나 5G 이동 통신이 필요할 정도로 설치하기 어려운 곳에 IoT 카메라를 설치해야 하는 필요성이 아직 높지 않고, LTE나 5G 이동 통신으로 영상 데이터를 전송할 경우 현재 이동 통신 요금 체계로는 통신 요금과 LTE 및 5G 이동 통신 칩이 적용된 IP 카메라 가격이, 기업 입장에서 부담하기에 기업에서 다소 부담이 크기도 하다.
이런 비용 문제뿐만 아니라, IP 카메라 해킹 사건으로 미국에서 사생활 침해에 대한 논란이 크게 일어났던 적도 있고[28-31], 무선 네트워크나 IoT에 연결된 CCTV나 보안용 감시 카메라의 아직 성숙되지 않은 보안 수준 때문에 사생활 침해에 대한 불안감이 아직 높아, 이동 통신 기능이 내장된 IoT 카메라에 대한 시장이 아직 열리지 않았다고 생각해서 제품이 많이 나오지 않은 것으로 보인다.
구글을 은근하게 비판하는 듯한 내용의 영화인 “서클(Circle)”이라는 영화엔 무선 통신을 기반으로 한 가상의 IoT 카메라인 “시체인지(SeeChange)”가 나온다. 이 영화에서 보여준 “시체인지(SeeChange)” IoT 카메라에 대한 좋지 않은 이미지와 최근 여러 영화와 드라마에서 묘사된 IoT 카메라에 대한 부정적인 이미지 때문에 이동 통신과 결합된 영상 카메라 센서가 불러일으킬 수 있는 사생활 침해에 대한 불안감이 유난히 높은 것 같다.
최근 구글, 페이스북, 아마존과 같은 인터넷 플랫폼 기업들이 내놓은 음성 인식 스피커와 영상 인식 기능이 있는 카메라 제품들이 이들 인터넷 플랫폼 기업들의 독점 이슈와 맞물려 사생활 침해에 대한 일반 시민들의 불안감을 또한 가중시키고 있다. 이동 통신 기능이 추가된 IoT 영상 카메라가 시장에서 확산되기 위해서는 이런 불안감을 극복하는 것이 과제이다.
이런 사생활 침해에 대한 불안감에도 불구하고, IT 시장 조사 및 리서치 회사인 가트너는 지난 2019년 10월에 발표한 시장 전망에서 IoT에 연결되는 감시용 카메라(surveillance camera)가 커넥티드 자동차에 이어 5G IoT 시장에서 2023년까지 가장 큰 IoT 시장을 형성할 것으로 예측했다[18].
2020년 시장 규모로는 5G IoT 감시 카메라의 시장 규모가 전체 시장 규모의 70%에 달해 가장 큰 것으로 예측되었으며, 이 때문에 28GHz 기지국이 본격적으로 상용화되기 시작하여 고대역폭, 저지연 5G 데이터 통신 서비스가 제공되기 시작할 2020년이 5G 이동 통신 기능을 탑재한 IoT 카메라 확산의 원년이 될 것으로 보인다[18].
Segment | 2020 Volume | 2020 Market Share(%) | 2023 Volume | 2023 Market Share(%) |
Connected cars—embedded (consumer and commercial) | 393 | 70 | 19,087 | 39 |
Outdoor surveillance cameras | 2,482 | 70 | 15,762 | 32 |
Fleet telematics devices | 135 | 4 | 5,146 | 11 |
In-vehicle toll devices | 50 | 1 | 1,552 | 3 |
Emergency services | 61 | 2 | 1,181 | 2 |
Others | 400 | 11 | 5,863 | 12 |
Total | 3,522 | 100 | 48,590 | 100 |
표 1. 가트너(Gartner)에서 발표한 5G IoT 카메라의 2020년부터 2023년까지의 시장 전망치. (단위: 천 개, 반올림된 수치로, 각 수치를 더했을 때 아래 총 합 수치와 정확하게 맞지 않을 수 있음. (표 출처: Gartner (October 2019), [15])
ADLink사의 에지 IoT CCTV 카메라인 NEON i1000B 제품과 함께 우리나라의 피플 앤드 테크놀로지와 한화테크윈이 같이 제휴하여 출시했던 IoT CCTV 카메라도 같이 살펴보도록 하자. 2018년 실시간 위치 시스템 솔루션인 인도어플러스(IndoorPlus)를 보유한 피플 앤드 테크놀로지와 보안용 CCTV 카메라 제품을 생산하는 한화테크윈이 제휴하여 출시한 IoT 카메라인 XNO-6080RA(왼쪽)와 XNP-6370RHA는 IoT 게이트웨이가 내장되어 있으면서, 비콘 스캐너 및 내장 BLE를 통해서 BLE 태그를 단 대상의 위치를 추적할 수 있다. 비콘 스캐너 및 내장 BLE를 통해 위치가 수집되는 대상에 대해서 영상 추적이 가능하기 때문에 지능적이고 선별된 영상 자동 수집이 가능하다.
이처럼 실시간 위치 추적 기능이 결합된 IoT 카메라는 선별된 대상에 대해서 실시간 위치 정보와 영상 정보를 인터넷을 통해 지속적으로 서버로 전송할 수 있기 때문에, 지속적인 관찰과 감시가 필요한 대상에 대해서 자동화된 방식의 무중단 영상 수집이 가능하다는 장점이 있다.
지속적인 관찰과 보호가 필요한 치매 노인, 독거노인과 같은 사회적 약자 보호 같은 분야와 성범죄자나 요즘 한창 이슈인 코로나바이러스와 같은 전염성 질환 환자와 같이 사회적인 위험이 될 수 있어 선별 격리해야 하는 사람들을 무중단으로 관찰해야 하는 경우에 활용할 수 있다.
2018년에 실시간 위치 추적 기능을 결합해 수행하던 선별적 영상 수집은 최근에는 딥러닝 및 컴퓨터 비전 기반의 객체 추적(object tracking)과 같은 인공지능 기술을 이용해서 별도의 실시간 위치 추적 기능 없이 영상 정보만을 가지고 특정한 대상의 영상을 추적 전송하는 IoT 카메라도 출시되고 있다.
역시 같은 회사인 한화테크윈에서 나온 PNO-A9081R IoT 카메라는 이런 인공지능 기술을 이용해 특정 대상을 자동으로 인식, 추적할 수 있는 지능형 영상 수집이 가능한 제품이다. 컴퓨터 비전 기술을 이용해 사람, 얼굴, 차량과 번호판을 자동으로 인식, 분류가 가능하며, 인식된 개체를 정확하게 확인할 수 있도록 하는 최적의 영상인 베스트샷을 자동으로 선별해 저장할 수 있는 지능적인 영상 수집이 가능하다.
인공지능 기술을 이용한 자동 영상 인식, 추적과 함께, 인식된 대상의 이동 방향 감지, 출입 감지, 움직임 감지와 같은 고급 영상 이벤트 검출과 분석도 가능하게 되었다.
지금까지 소개한 피플 앤드 테크놀로지와 한화테크윈의 실시간 위치 추적 기능과 결합된 IoT 영상 카메라, 인공지능 기술을 이용한 영상 선별 수집 및 추적이 가능한 IoT 영상 카메라는 다양한 센서와 인공지능 기술을 활용한 자동화된 데이터 수집의 추세를 잘 보여주는 기술 사례라고 할 수 있다.
이와 같은 IoT 영상 카메라 때문에 앞으로 에지 컴퓨팅, 5G 이동 통신과 유선 네트워크 기술의 발전 때문에 IoT 영상 카메라와 센서에서 수집될 수 있는 정보의 종류와 범위가 크게 확대되고, 에지 컴퓨터를 통해 필요한 정보만 먼저 선별, 압축되어 클라우드 컴퓨팅 시스템에 전달되기 때문에 클라우드 컴퓨팅 시스템에서 제공할 수 있는 지능형 서비스의 지능 수준이 더 높아지게 된다.
사이버 물리 시스템, 빅데이터, IoT의 미래를 보여주는 최신 동향(2) – DNA 시퀀서
이번 글에서 사물인터넷과 에지 컴퓨팅이 사이버 물리 시스템의 지능을 높이는 추세를 보여주는 마지막 사례로 소형화된 DNA 시퀀서 제품의 사례를 살펴보도록 하자.
빅데이터에 대해서 얘기할 때 언제나 빠지지 않고 등장하는 분야가 있는데, 바로 유전체 데이터 분석 분야이다. 1953년 제임스 왓슨과 프랜시스 크릭이 유전자의 분자적인 실체인 디옥시리보핵산(DNA)의 이중 나선 구소를 밝힌 이래로, DNA의 유전자 염기 서열 정보는 생명 정보의 가장 중요한 정보로 자리 잡아 왔다.
1990년부터 2003년까지 진행된 “인간 게놈 프로젝트(The Human Genome Project)”로 수집된 인간 유전체 염기 서열 정보는 현재 각종 질병의 유전적인 근원을 밝히고 인간 생명의 비밀과 기능을 밝히는 중요한 생명 정보로서 다양한 분야에서 활용되고 있다.
한 사람의 DNA 염기서열을 모두 해독하면 DNA 염기서열을 해독하는 기계인 DNA 시퀀서에서 바로 나오는 데이터는 한 사람의 유전체 당 약 200GB 정도 용량의 데이터가 나온다고 한다. DNA 염기 서열은 아데닌(Adenine), 구아닌(Guanine), 티민(Thymine), 사이토신(Cytosine)의 네 가지 염기로 구성되기 때문에, 한 염기 서열은 2비트로 표현될 수 있으므로, 순수하게 염기 서열만 표현하는 데이터는 남자는 약 770MB, 여자는 약 756MB 정도의 데이터가 나온다고 한다[32-33].
여기에 염기서열 분석을 위한 다양한 메타 데이터가 추가되면 한 사람당 대략 테라바이트(TB) 정도의 데이터가 나온다고 볼 수 있다[32-34]. DNA 염기 서열 정보가 한 사람당 수백 기가바이트에서 테라바이트 정도의 데이터가 나오기 때문에, 이를 분석하기 위해서는 많은 용량의 데이터 저장 장치와 꽤 높은 수준의 계산 자원이 필요함을 알 수 있다.
[그림 5]의 맨 위, 왼편에 있는 그림은 인간의 염기 서열을 모두 해독하기 위해 미국 국립보건원(National Institute of Health; NIH)에서 국제 협력 프로젝트로 진행했던 “인간 게놈 프로젝트(The Human Genome Project)”에서 사용했던 미국 어플라이드 바이오시스템즈(Applied Biosystems, Inc.)사의 “ABI 3700 유전체 분석기(Genetic Analyzer)” 장비이다.
미국 어플라이드 바이오시스템즈사의 “ABI 3700 유전체 분석기(Genetic Analyzer)”는 처음으로 DNA 염기서열 해독 과정을 자동화한 장치로, 현대 많은 DNA 시퀀서 장비의 효시가 된 장치이다.
이 장치를 시작으로 DNA 염기서열 해독 작업의 자동화가 본격적으로 시작되었으며, 생물학이 단순한 실험 과학이 아니라, 생물학적 지식이 정보기술과 컴퓨터과학이 결합된 생물정보학이라는 새로운 학문을 탄생시키면서 대표적인 데이터 집중 과학의 한 분야가 되게 했던 역사적인 장치가 바로 “ABI 3700 유전체 분석기(Genetic Analyzer)”이다.
“ABI 3700 유전체 분석기(Genetic Analyzer)”가 개발되어 사용되었던 “인간 게놈 프로젝트(The Human Genome Project)”가 진행된 1990년부터 2003년까지를 DNA 시퀀서의 1세대라 부른다. “인간 게놈 프로젝트(The Human Genome Project)”가 끝난 후에는 이 프로젝트의 성과물을 중심으로 유전체 정보가 본격적인 의학, 인간 생물학 및 생명공학에 응용되어 다양한 연구가 수행되기 시작하면서 2세대 DNA 시퀀서 장비 기술이 발전하기 시작하였다. [그림 5]의 맨 위 오른편에 있는 일루미나(Illumina)사의 Genome Analyzer II 시스템이 대표적인 2세대 DNA 시퀀서 장비다.
사진에서 보는 것과 같이 1, 2세대 장비 모두 장치의 크기가 크고, 장치 내부에는 해독 대상이 되는 DNA 단편(fragment)의 염기 해석을 위한 화학 반응과 실험 프로토콜이 자동으로 수행되어 염기 서열을 판독할 수 있도록 돕는 수준의 장치만이 있었다.
2007년부터 시작된 2세대 DNA 시퀀서 장비에서부터 DNA 단편의 염기 해독 정확도와 속도가 높아지고, 해독 비용이 많이 낮아지기는 했지만, 실시간 분석, 데이터 분석 자동화와 같은 기능은 여전히 부족하였다. 하지만, 최근에 나오는 장비들은 장비 내부에 초도 분석(preliminary analysis)이 가능한 임베디드 컴퓨터가 내장되어 있어서 염기 서열 해독과정에서 나온 데이터의 품질이나 해독 상태를 간단하게 분석할 수 있게 되어 있다.
DNA 시퀀싱 과정의 특성상, 한 DNA 시퀀서 장비에서 해독 대상이 되는 생물종 유전체의 “전체 유전체 시퀀싱(whole genome sequencing)”은 아직 불가능하다. DNA 시퀀서 장비에서 한 번에 해독할 수 있는 염기 서열의 양은 전체 DNA 염기 서열에 비해 매우 작은 양이기 때문에, 이렇게 해독된 염기 서열 데이터를 모아 전체 유전체 염기 서열 데이터로 조립(assemble)하는 과정이 필요하다. 이런 계산은 아직 DNA 시퀀서 장비에서 모두 수행할 수 없으며, 보통 별도의 고성능 컴퓨팅 시스템을 이용하게 된다.
[그림 5]의 중간 왼쪽 위에 있는 장비는 일루미나(Illumina)사의 MiniSEQ라고 하는 소형 DNA 시퀀싱 장비이다. 1세대 장비에 쓰였던 생어 방법(Sanger protocol) 이후에 개발된 차세대 DNA 시퀀싱 방법을 이용해서 최근 DNA 시퀀싱 장비들이 작은 에스프레소 머신 정도의 크기로 많이 소형화되었다.
이와 함께 과거의 1, 2세대 장비에 고성능 임베디드 컴퓨터를 탑재해서 실험 결과의 모니터링과 품질 분석, 데이터의 수집과 저장, 관리를 편리하게 개선한 3세대 DNA 시퀀싱 장비들이 최근 나오고 있다.
그림 5의 중간 왼쪽 아래, 중간 오른쪽에 위치한 그림에서 보여주는 장비는 역시 일루미나(Illumina)사의 3세대 DNA 시퀀싱 장비인 NovaSeq 6000 시스템이다. NovaSeq 6000 시스템은 앞서 소개한 MiniSeq 시스템보다 한 번에 해독할 수 있는 염기 서열의 최대량(maximum output)과 읽어낼 수 있는 DNA 단편의 양(maximum read per run)이 800배에 이른다.
NovaSeq 6000 시스템에는 임베디드 컴퓨터와 염기 서열 데이터의 품질을 모니터링하고 초도 분석이 가능한 분석 소프트웨어도 같이 탑재되어 있다. 과거 1세대 시퀀서에 비하면 데이터 생산량도 크게 높아졌을 뿐만 아니라, 임베디드 컴퓨터를 통해 염기서열 데이터의 품질 모니터링과 초도 분석을 할 수 있어서 염기서열 해독과정의 시행착오도 많이 줄일 수 있게 되었다.
이렇게 3세대 DNA 시퀀싱 장비에는 염기서열 해독 실험 과정의 자동화율이 높아졌을 뿐만 아니라, 사람이 수작업으로 데이터를 만들어 일일이 분석용 고성능 시스템으로 데이터를 옮겨 염기서열 조립과 분석 연산을 해야 했던 예전과 달리, 과거 1세대 DNA 시퀀싱 장비 시절의 슈퍼컴퓨터급에 맞먹는 컴퓨터가 내장되어 기초적인 분석을 해주는 단계까지 이르렀다. 이 때문에 단위 시간에 판독해낼 수 있는 염기 서열 데이터의 양이 과거보다 기하급수적으로 늘어나고 있다.
[그림 5]의 맨 아래 그림 둘은 나노기술을 이용한 가장 최신의 DNA 시퀀싱 기술인 “나노포어 시퀀싱(nanopore sequencing)” 기술을 이용한 초소형 DNA 시퀀싱 장치인 옥스포드 나노포어 테크놀로지스(Oxford Nanopore Technologies, Ltd.)사의 MinION이라는 나노포어 DNA 시퀀싱 장치다.
이 MinION이라는 나노포어 시퀀서는 노트북 컴퓨터와 연결된 최신 스마트폰의 절반정도 되는 사이즈의 기기에 DNA 샘플을 넣고 DNA 시퀀싱을 실험실이 아닌 현장에서도 가능하게끔 해준다. 뿐만 아니라, MinION과 같은 나노포어 DNA 시퀀싱 기술은 앞으로 1,000달러 DNA 시퀀싱 시대를 열어 DNA 정보를 이용한 맞춤형 개인 의학(personalized medicine), 정밀 의학(precision medicine)의 시대를 열 것으로 기대되고 있다.
[그림 5]의 맨 아래 오른쪽 그림은 미항공우주국(NASA)의 우주인인 케이트 루빈스가 MinION DNA 시퀀싱 장비를 이용해서 국제 우주정거장에서 DNA 시퀀싱 분석을 하는 사진이다. 이렇게 초소형화된 DNA 시퀀싱 장비를 이용해, 과거에는 장비의 크기와 무게로 인한 비용과 운반의 제약 때문에 우주로 실어나를 수 없어 우주에서 DNA 시퀀서를 이용한 실험을 할 수 없었던 것과 달리, DNA 시퀀싱을 이용한 유전체 분석과 이와 관련된 다양한 유전체 관련 실험을 우주에서도 할 수 있게 되었다.
DNA 시퀀서의 발전 방향은 앞으로 사물인터넷(IoT) 기기의 발전 방향을 상징적으로 보여준다. 우선, 데이터를 생산해내는 측정, 실험 장치가 과거에는 컴퓨팅 성능과 저장 장치, 네트워크 성능의 한계로 생산해낼 수 있는 데이터의 양과 속도가 제한될 수밖에 없었다. 어렵게 측정, 수집된 데이터를 분석하여 의미 있는 지식과 통찰을 얻기 위해서는 각 장치에서 수집된 데이터를 수작업으로 다소 번거로운 과정을 거쳐서 서버와 고성능 컴퓨터로 옮겨 분석할 수밖에 없었다.
사물인터넷(IoT) 기술의 발전, 10Gbps급 대역폭(bandwidth)을 곧 제공할 수 있을 것으로 보이는 차세대 이동통신 기술과 400Gbps, 테라비피에스(Tbps)급 대역폭 제공을 눈앞에 두고 있는 광대역 유선 네트워크 기술, 테라플롭스급 연산 성능을 제공하게 될 에지 컴퓨팅 기술의 발전으로 이렇게 빅데이터를 쏟아내는 측정, 실험 장치와 센서의 데이터를 모아 클라우드 컴퓨팅을 이용해 분석하기가 점점 더 쉬워지고 있다.
이에 더해서, 최근 급격하게 발전하고 있는 나노기술 때문에 점점 소형화되어 가고 있는 센서와 에지 컴퓨팅용 고성능 임베디드 컴퓨팅 프로세서 기술 때문에 에지 컴퓨팅이 결합된 스마트 센서 기술이 급격하게 발전하고 있어, 단위 측정, 실험 장치에서 쏟아내는 데이터의 양과 정밀도가 비약적으로 향상되고 있다.
이렇게 사물인터넷(IoT) 기기들은 사이버 물리 시스템의 정보 수집 능력의 한계를 크게 높여주게 되어 사이버 물리 시스템에 기반한 지능형 서비스의 공간적, 시간적 한계를 크게 넓히게 될 것이다. 에지 컴퓨팅과 나노 기술, 사물인터넷과 결합된 스마트 센서들을 통해서, 수집할 수 있는 정보의 정밀도, 정보량의 한계, 정보 수집 과정의 공간적, 시간적 제약을 극복하게 될 사이버 물리 시스템은 우리가 볼 수 없고, 들을 수 없는 정보까지 수집, 종합하여 이전에는 불가능했던 새로운 종류의 지능형 서비스 비즈니스 창출이 가능해질 것으로 기대된다.
지금까지, 사이버 물리 시스템과 빅데이터 비즈니스의 미래를 엿볼 수 있게 해주는 사물인터넷, 에지 컴퓨팅 기술 동향의 대표적인 두 가지로 스마트 카메라 기술과 DNA 시퀀서 기술의 현황과 전망을 같이 살펴보았다. 딥러닝과 같은 인공지능 기술을 실행할 수 있는 에지 컴퓨팅 장치가 부착된 스마트 카메라는 예전에는 처리할 수 없었던 지능형 데이터 수집을 가능하게 하여 풍부하고 다양한 상황 정보 수집을 가능하게 할 것이라고 설명하였다.
나노 기술과 임베디드 컴퓨팅 기술의 발전으로 소형화되고 더 많은 양의 데이터를 더 정밀하게 생산해내게 된 DNA 시퀀서는 앞으로 이동통신 기술과 광대역 유선 네트워크, 클라우드 컴퓨팅과 결합하여 점점 더 많은 DNA 염기서열 데이터를 더 값싸게 생산해낼 수 있게 되어 1,000달러 유전체 분석 시대를 열 것으로 전망된다.
나노 기술의 발전으로 소형화되어 가는 센서, 고대역폭, 저지연 이동통신과 광대역 유선 네트워크 기술, 성능이 더 높아져 가고 나노 기술과 반도체 기술의 발전으로 더 소형화되어가는 에지 컴퓨팅 장치는 사물인터넷 기기의 지능과 데이터 생산 능력을 비약적으로 향상시켜 사이버 물리 시스템의 지능을 높이고 반응 속도를 향상하는 데 큰 역할을 하게 될 것이다.
인터넷 플랫폼 비즈니스 거인들의 어깨에 올라타 기민하게 성장을 노려볼 수 있는 미래 기술 분야가 바로 사물인터넷을 이용한 스마트 센서, 에지 컴퓨팅이다.”
스마트 센서를 통해 수집되는 데이터의 양과 속도, 종류가 늘어나면 이를 적절한 시간 안에 처리하고 자율 에이전트와 지능형 액추에이터를 통해 사람들에게 향상된 사용자 경험과 상호 작용을 제공할 수 있도록 하기 위해서 빅데이터 기술 또한 더 다양하게 발전하게 될 것이다.
사이버 물리 시스템의 종단간(end-to-end) 통합과 동작 과정에 필요한 각 컴포넌트와 모듈별, 종단간(end-to-end) 데이터 처리, 분석 자동화를 위해 데이터 과학의 역할이 중요하게 되어 데이터 과학자들의 수요와 중요성이 더 높아지게 될 것이다.
뿐만 아니라, 더 다양하고 풍성한 데이터를 수집하여 제공하는 사물인터넷 데이터에서 다양한 맥락과 상황을 읽어내어 비즈니스에 활용하기 위해 고도의 IT 스킬과 데이터 분석 역량이 결합된 고급 데이터 과학자의 역할도 더 중요해지게 될 것이다.
무엇보다 필자가 사물인터넷 장치와 스마트 센서, 에지 컴퓨팅에 대한 기대가 큰 것은, 클라우드 컴퓨팅, 5G와 테라비피에스(Tbps) 이더넷으로 대표되는 차세대 네트워크 인프라 기술과 달리, 사물인터넷 장치와 스마트 센서, 에지 컴퓨팅 디바이스는 스타트업이 창업하기 용이한 분야이기 때문이다.
사이버 물리 시스템의 에지 네트워크 영역에서 소비자들에게 직접적인 가치를 제공하는 기술이 되기 때문에 비즈니스 기회가 많기도 하고, 클라우드 컴퓨팅과 이동통신 네트워크 인프라와 같이 대규모 투자가 필요해 대기업만이 할 수 있는 사업이 아니라 작고 저렴한 제품으로 B2C 시장을 직접 공략해볼 수 있기 때문에 스타트업들에 많은 기회가 열려 있기도 하다.
사이버 물리 시스템과 소비자 사이에서 지능적인 상호작용을 유도하는 최첨단에 있는 기술들이기 때문에 기술 발전이 빠르고 다양한 방식으로 풍성하게 일어나 사이버 물리 시스템을 구성하는 여러 기술 요소 중에서 정말 많은 기회가 있는 기술 영역이라고 할 수 있다.
요즘 소위 GAFA(Google, Amazon, Facebook, Apple)로 통칭되는 인터넷 플랫폼 서비스 기업들 때문에 독점적인 플랫폼 기업을 꿈꾸며 인터넷 플랫폼 비즈니스를 아이템으로 창업하는 스타트업들이 많아졌다. 최근 “쿠팡”과 “배달의 민족”처럼 서비스 플랫폼을 통해 유니콘으로 성장한 스타트업들이 있어 더더욱 그런 것 같다.
플랫폼 비즈니스는 상대적으로 쉽게 확장이 가능하고 독점적인 시장 지배력을 확보할 수 있다는 장점이 있지만, 인터넷 플랫폼 서비스 대기업들의 영향력이 커진 요즘은 창업 아이템을 고르기가 점점 어려워지고 있다.
그렇다면 반대로 이런 거인들의 어깨에 올라타 더 높게, 멀리 뛰어오를 수 있는 비즈니스를 만들어보는 것은 어떨까? 사실 이것이 바로 이들 GAFA가 바라는 것이기도 하다. 이렇게 인터넷 플랫폼 비즈니스 거인들의 어깨에 올라타 기민하게 성장을 노려볼 수 있는 미래 기술 분야가 바로 사물인터넷을 이용한 스마트 센서, 에지 컴퓨팅이다.
B2C, B2B 모두 풍부하게 기회가 널려 있으며, 자체적으로 보유한 스마트 센서, 에지 컴퓨팅 디바이스 제품과 사이버 물리 시스템과 빅데이터 기술을 활용해 하드웨어, 소프트웨어가 결합된 사이버 물리 시스템 기반의 지능형 서비스 비즈니스로 확장이 가능하다는 장점도 있다.
어떤 아이템으로 창업을 할지 고민하는 사람이라면 사물인터넷 기반의 스마트 센서, 에지 컴퓨팅 디바이스 제품을 한번 생각해보자. 제품을 만들어 B2C, B2B로 파는 제조업 스타트업도 가능하지만, 저렴한 가격 또는 공짜로 제품을 배포하고, 이 스마트 센서, 에지 컴퓨팅 디바이스에 데이터 관리, 분석 서비스를 제공하거나 이들 하드웨어를 기반으로 한 플랫폼 서비스를 통해 프리미엄 패턴(Freemium pattern), 멀티 사이디드 플랫폼(Multi-sided platform) 비즈니스 모델 형태의 확장성 있는 비즈니스로 성장하는 것도 가능하다. 사이버 물리 시스템의 발전으로 더 중요해질 사물인터넷, 에지 컴퓨팅 분야의 이런 비즈니스 기회를 놓치지 말고 새로운 성장의 발판으로 삼아보도록 하자.
[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] 김학용, “사물인터넷 – 개념, 구현기술 그리고 비즈니스”, 홍릉과학출판사, 2014.
[3] Richard Gao, “Google Clips app pops up on the Play Store ahead of the camera being delivered to anyone,” Android Police, February 28, 2018. (https://www.androidpolice.com/2018/02/26/google-clips-app-pops-play-store-ahead-camera-delivered-anyone)
[4] dev1by0, “구글이 만든 AI 카메라 – 클립스(Clips) 소개,” steemit, 2017년 10월 19일. (https://steemit.com/kr/@dev1by0/ai-clips)
[5] Google Clips specifications (https://support.google.com/googleclips/answer/7545447?hl=en).
[6] Google Clips supported devices and OS requirements (https://support.google.com/googleclips/answer/7545354?hl=en).
[7] Google Clips specs (https://www.cnet.com/products/google-clips/specs/).
[8] Dan Seifert, Photography by James Bareham, “GOOGLE CLIPS REVIEW: A SMART CAMERA THAT DOESN’T MAKE THE GRADE – Can you trust Google’s algorithms with your most precious moments?” The Verge, February 27, 2018. (https://www.theverge.com/2018/2/27/17055618/google-clips-smart-camera-review)
[9] Dieter Bohn, Photography by James Bareham, “THE GOOGLE CLIPS CAMERA PUTS AI BEHIND THE LENS,” The Verge, October 4, 2017. (https://www.theverge.com/2017/10/4/16405200/google-clips-camera-ai-photos-video-hands-on-wi-fi-direct)
[10] Google Clips, Engadget Review. (https://www.engadget.com/products/google/clips/)
[11] Google Clips, Wikipedia. (https://en.wikipedia.org/wiki/Google_Clips)
[12] Jay Peters, “Google Clips is dead – RIP,” The Verge, October 16, 2019. (https://www.theverge.com/2019/10/16/20917386/google-clips-dead-discontinued-rip-camera-ai)
[13] Sulleyman, Atiif, “Google’s Creepy Camera Monitors, Identifies and Records You and Your Loved Ones,” The Independent, October 5, 2017(Retrieved 7 October 2017). (https://www.independent.co.uk/life-style/gadgets-and-tech/news/google-clips-camera-price-release-date-features-creepy-a7984276.html)
[14] ADLink NEON i1000 series, ADLInk Products – AI Machine Vision Devices. (https://www.adlinktech.com/products/Machine_Vision/SmartCamera/NEON-i1000_series?lang=en#tab-ordering)
[15] ADLink NEON 1000 MDX series, ADLInk Products – AI Machine Vision Devices. (https://www.adlinktech.com/Products/Deep_Learning_Accelerator_Platform_and_Server/AI_Machine_Vision_Devices/NEON-1000-MDX_Series?lang=en#tab-ordering)
[16] Laurence Goasduff, “Gartner Predicts Outdoor Surveillance Cameras Will Be Largest Market for 5G Internet of Things Solutions Over Next Three Years,” Newsroom – Press Release, Gartner, October 17, 2019. (https://www.gartner.com/en/newsroom/press-releases/2019-10-17-gartner-predicts-outdoor-surveillance-cameras-will-be)
[17] 한화테크윈 제품 소개 – BLE 내장 카메라. (https://www.hanwha-security.com/ko/search/searchAll.do?srchKeyword=BLE+%EB%82%B4%EC%9E%A5)
[18] Alan Weissberger, “Gartner: 5G IoT endpoints to triple between 2020 and 2021; Surveillance cameras to be largest market over next 3 years,” IEEE Communications Society Technology Blog, October 17, 2019. (https://techblog.comsoc.org/2019/10/17/gartner-5g-iot-endpoints-to-triple-between-2020-and-2021-surveillance-cameras-to-be-largest-market-over-next-3-years/)
[19] Sarah Wray, “Outdoor surveillance cameras to be biggest IoT 5G sector until 2023,” SmartCitiesWorld, 24 Oct 2019. (https://www.smartcitiesworld.net/news/news/outdoor-surveillance-cameras-to-be-biggest-iot-5g-sector-until-2023–4712)
[20] Claude Hochreutiner, “Smarter Camera Solutions Lead the Way in Predicted 5G IoT Market Adoption by 2023, According to Gartner,” AnyConnect Academy, November 29, 2019. (https://anyconnect.com/blog/smarter-camera-demand-gartner-5g/)
[21] Jishnu Dasgupta, “When 5G and video surveillance met in a smart city,” Nokia Blog, Feb 28 2020. (https://www.nokia.com/blog/when-5g-and-video-surveillance-met-smart-city/)
[22] “Outdoor Surveillance Cameras Will Be Largest Market for 5G IoT Solutions until 2023,” IoT Business News, October 21, 2019. (https://iotbusinessnews.com/2019/10/21/04117-outdoor-surveillance-cameras-will-be-largest-market-for-5g-iot-solutions-until-2023/)
[23] “Homeland security first area where 5G cellular IoT can have major impact,” i-SCOOP. (https://www.i-scoop.eu/homeland-security-5g-cellular-iot/)
[24] T프로듀서 NEWTURN, “집 비울 때 걱정된다? T View Sense(티뷰센스) 설치방법!”, SKT Insight, SK텔레콤, 2017. 02. 23. (https://www.sktinsight.com/85594)
[25] T-View Sense Enterprise, (http://b2b.tworld.co.kr/bizts/solution/solutionTemplate.bs?solutionId=0024)
[26] Giga IoT 홈캠1/홈캠2, (https://shop.kt.com/iot/prodGigaIotHomecam.do)
[27] GigaEyes, (https://shop.kt.com/wire/gigaeyes.do)
[28] Neil Vigdor, “Somebody’s Watching: Hackers Breach Ring Home Security Cameras,” The New York Times, Dec. 15, 2019. (https://www.nytimes.com/2019/12/15/us/Hacked-ring-home-security-cameras.html)
[29] Elizabeth Wolfe and Brian Ries, “A hacker accessed a family’s Ring security camera and told their 8-year-old daughter he was Santa Claus,” CNN Business, updated 21:36 GMT (05:36 HKT) December 13, 2019. (https://edition.cnn.com/2019/12/12/tech/ring-security-camera-hacker-harassed-girl-trnd/index.html)
[30] “Hackers tap into home security cameras and livestream to hundreds,” ABC News, 2019. 12. 14. (https://youtu.be/mTnX3ixd13Q)
[31] Kari Paul, “Ring sued by man who claims camera was hacked and used to harass his kids,” The Guardian – Technology, published on Friday 27 Dec 2019. (https://www.theguardian.com/technology/2019/dec/27/ring-camera-lawsuit-hackers-alabama)
[32] Reid J. Robison, “How big is the human genome? – In megabytes, not base pairs.”, Medium -Precision Medicine Blog, January 6, 2014. (https://medium.com/precision-medicine/how-big-is-the-human-genome-e90caa3409b0)
[33] “Whole genome sequencing,” Wikipedia. (https://en.wikipedia.org/wiki/Whole_genome_sequencing)
[34] “DNA Sequencing,” Wikipedia. (https://en.wikipedia.org/wiki/DNA_sequencing)
[35] Public Engagement team, “Timeline: The Human Genome Project, “ Wellcome Genome Campus. (https://www.yourgenome.orghttp://files.ciokorea.com/archive/images/photos/3700sequencers83-44.jpg)
[36] National Museum of American History – Behring Center, “3700 DNA Analyzer,” National Museum of American History. (https://americanhistory.si.edu/collections/search/object/nmah_1297334)
[37] Jon Callas, “Illumina Gene Sequencing machine – Genome Analyzer II System.” (https://commons.wikimedia.org/wiki/File:Illumina_Genome_Analyzer_II_System.jpg)
[38] Breaking News – Illumina MiniSeq. (https://www.biostars.org/p/172278/)
[39] Dave Morgan, “Exploring the future of genomics – the potential of sequencing technologies like NovaSeq,” The Institute of Cancer Research, London – Blogs (Science Talk), September 15, 2017. (https://twitter.com/ICR_London/status/958641301007855617/photo/1)
[40] Illumina, NovaSeq 6000 System. (https://www.illumina.com/systems/sequencing-platforms/novaseq.html)
[41] Caroline Seydel, “First Nanopore Sequencing of Human Genome,” Genetic Engineering and Biotechnology News, January 29, 2018. (https://www.genengnews.com/uncategorized/first-nanopore-sequencing-of-human-genome/)
[42] Melissa Gaskill, “First DNA Sequencing in Space a Game Changer,” NASA Research News, August 30, 2016. (https://www.nasa.gov/mission_pages/station/research/news/dna_sequencing)
[43] https://www.nasa.govhttp://files.ciokorea.com/archive/thumbnails/image/128f0462_sequencer_1.jpg
[44] “With $24.5M in Series A Financing, Two Pore Guys Are In the Money,” Clinical OMICs, April 26, 2017. (https://www.clinicalomics.com/topics/oncology/with-24-5m-in-series-a-financing-two-pore-guys-are-in-the-money/)
[45] Two Pore Guys Introduction (https://www.youtube.com/watch?v=AGmGr1KJ9bQ).
* 김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. dl-ciokorea@foundryco.com