실시간
뉴스

반도체

마크 해밀턴 엔비디아 부사장 GTC코리아 2015 기조연설 전문

<편집자 주. 22일 서울에서 열린 엔비디아 GTC코리아 2015 행사의 기조연설 전문을 게재합니다. 발표자는 마크 해밀턴 엔비디아 솔루션 아키텍처 및 엔지니어링 부문 부사장입니다. 병렬 처리에 최적화된 GPU가 딥러닝 시대를 열었고, 무인차 시대로 가는 일종의 다리 역할을 할 것이라고 그는 소개했습니다. 이를 위한 최적의 도구는 바로 엔비디아 GPU와 독자적인 병렬 처리 프로그래밍 언어인 쿠다라는 것이 해밀턴 부사장의 설명이었습니다.>

한국에서 처음으로 GTC 행사가 열렸다. 오늘 와서 보니 오래전부터 열렸어야 했다는 생각이 든다. 저는 15년째 한국에 방문하고 있다. 한국의 기술 발전과 혁신에 놀라고 있다.

이 자리에 1000명의 쿠다 개발자들이 앉아 있다. 우리는 다양한 일을 하지만, 쿠다가 핵심이다. 한국은 자동차 산업을 비롯한 제조 강국이다. 쿠다가 필요할 수 밖에 없다. 그렇기 때문에 여기 이렇게 많은 분들이 GTC 코리아 행사에 왔다고 생각한다. GTC는 아주 특별한 행사다. 일반적인 IT 업체가 하는 컨퍼런스와는 질적으로 다르다. 개발자를 위한 회의이자, 데이터 과학자, 딥러닝 전문가들을 위한 컨퍼런스이기 때문이다.

본론을 얘기해보자.

전 세계 디자이너가 엔비디아 쿼드로 GPU가 탑재된 워크스테이션을 사용한다. 모터사이클, 자동차, 그 외 컴퓨터로 디자인한 모든 것들이 쿼드로 워크스테이션에서 만들어진다. 누가 2D로 디자인하나? 3D로 해야 한다. 요즘은 보다 진보한 렌더링 기술을 통해 3D 디자인 뿐 아니라 3D 디자인을 실제와 같은 상품과 동일하게 만들어본다. 자신들의 감정과 열정을 설계 디자인에 담을 수 있게 됐다. 디자이너들은 3D 와이어 프레임이 아니라, 마치 실사와 같은 디자인을 보길 원한다. 엔비디아의 렌더링 기술이 있다면 이런 것이 가능하다.

더 큰 것도 디자인할 수 있다. 엔비디아는 미국 산타클라라에 7000여평 규모의 본사 건물을 새로 짓고 있다. 건물 외관은 모두 유리벽이 될 것이다. 안에는 5000개가 넘는 조명이 배치된다. 우리 최고경영자(CEO)인 젠슨 황은 건물을 짓기 전에, 실제로 완성된 건물을 보고 싶어했다. 디자인 팀은 120개의 쿼드로 GPU를 클라우드 상에서 돌리면서 건물 곳곳을 살피며 조명을 켰을 때 그림자는 어떻게 생기는 지, 전체적인 느낌은 어떤지 직접 보면서 디자인을 했다. 재미있지 않나?

우리는 지난 9월 초에 열렸던 VM웨어 컨퍼런스에서 2세대 그리드인 그리드 2.0을 선보였다. 이걸 사용하면 노트북, 태블릿, 스마트폰에서도 GPU를 활용한 디자인이 가능하다. 디자이너들만 그리드를 사용하지는 않는다. 엔지니어도 뭔가를 보면서 작업을 해야 한다.

도쿄공업대학은 중앙 수퍼컴퓨터에 4000개 이상의 엔비디아 테슬라 GPU를 설치했다. 1만명의 학생들이 그리드 기술로 이 수퍼컴퓨터에 접속해서 각종 연구를 수행한다. 1학년 생물학과 학생들은 이 인프라를 활용해 유전자학을 공부한다. 한국의 대학과도 이런 것을 하고 싶다.

딥러닝은 여러분이 가장 많은 관심을 갖고 있는 분야일 것이다. 딥러닝 알고리듬은 아주 오래 전에 개발됐다. 30~40년 정도 된 것 같다. 그 때는 빅데이터가 없었다. 수십~수천만개의 사진 데이터가 없었다는 얘기다. 정확히 10년 전 야후가 오픈소스로 하둡을 소개했다. 그러면서 상업 웹 기업들이 대규모의 빅데이터 클러스터를 구축하기 시작했고, 최근 들어서는 GPU 가속 기능을 통해 딥러닝을 수행하는 단계에까지 이르렀다.

여러분 얼굴을 컴퓨터에 저장하는 것은 간단하다. 컴퓨터는 사진을 0과 1로만 판단한다. 딥러닝은 10단계 이상의 뉴런 네트워크라는 알고리듬을 활용한다. 컴퓨터가 이것을 당신의 얼굴인지 인식하려면, 경계선과 동그라미를 파악한다. 그리고 이것을 조합해서 작은 사물로 만든다. 눈과 코와 입과 귀와 턱을 합해서 조합한다. 이런 식으로 계속 진행해 사물을 얼굴로 만들고 인지하게 되는 것이다. 물론 이것은 아주 단순하게 말한 것이다. 수십억개 이상의 개별 파라메터가 개입한다. 각 파라메터들은 아주 복잡한 수학적 알고리듬을 필요로 한다. 이런 것을 수행하려면 컴퓨터 성능이 좋아야 한다. 특히 GPU가 필요하다. CPU만으로는 절대 안 된다. 평균 30개 정도의 GPU가 필요하다.

굉장히 다양한 딥러닝 프레임워크가 있다. 카페(Caffe), 채이너(Chainer), 테아노(Theano), 토치(Torch) 등. 우리는 프레임워크 개발자들과 만나 기본 파라메터를 수집했다. 쿠다 전문가들이 이 알고리듬을 조율해서 cuDNN을 만들었고, 쿠다를 활용해 엔비디아 GPU로 딥러닝을 쉽게 할 수 있게 했다. cuDNN이 1년 전 GTC에서 처음 발표됐을 때 가장 좋은 GPU로 하루 2000만개 이상의 이미지를 처리(러닝)할 수 있었다. 1억개 이미지를 처리하려면 5일이 걸렸다. 지난 3월 열렸던 GTC 2015에선 cuDNN2가 발표됐다. 타이탄 X GPU와 조합하니 속도가 더 빨라졌다. 2주 전에는 cuDNN3를 발표했는데, 하루에 6000만개 이상의 이미지를 처리할 수 있게 됐다. 우리가 cuDNN을 선보인 이유는 딥러닝을 필요로 하는 이들이 느끼는 소프트웨어 개발에 대한 부담을 덜어주기 위해서였다. 통계학자, 생물학자가 소프트웨어까지 개발할 필요는 없는 것이다. 또 한가지. 우리는 딥러닝을 더 원활하게 돌릴 수 있도록 DIGITS도 개발했다. DIGITS은 딥러닝 프레임워크를 보다 쉽게 사용할 수 있도록 만든 일종의 툴이다. 이걸로 데이터 과학자들이 본질에 더 집중할 수 있도록 했다.

딥러닝은 어디에 쓰일까. 페이스북이나 구글이 광고 상품 만드는 데에만 쓰이진 않는다. 좋은 예가 의학 분야다. 암을 진단할 때 딥러닝이 활용될 수 있다. 사람보다 컴퓨터가 더 정확하게 암을 판독할 수 있다. 딥러닝은 무인차에도 활용될 수 있다. 무인차의 열쇠는 결국 비전 시스템이다. 이런걸 하려면 딥러닝이 필요하다. 현재 700만대 이상의 차량에 엔비디아의 GPU가 장착돼 있다. 물론 지금 장착된 GPU는 딥러닝이나 병렬컴퓨팅을 위한 용도가 아닌, 단순한 인포테인먼트 시스템을 위한 것이다. 그러나 미래에는 분명히 GPU가 무인차 기술의 중요한 영역으로 대두될 것이다. 지금 실리콘밸리에선 구글의 무인차가 시운전 되고 있는데, 그거 셀프 드라이빙보단 비디오를 수집하는 용도가 더 크다. 해당 비디오는 데이터센터로 보내져서 딥러닝 과정을 밟게 된다.

차 회사들도 그런 것을 하려한다. 아우디 870 모델이 있다. 이 차량은 카메라로 찍은 영상 데이터를 매일 본사로 보낸다. 매주 수요일 마다 한 번씩 차량별로 GB에 달하는 데이터를 보내온다. 아우디는 이 데이터를 받아 딥러닝 과정을 거쳐 무인차 개발에 활용하고 있다. 아우디 870에는 엔비디아의 드라이브 PX 제품군이 탑재된다. 아주 작은 제품인데 12개의 카메라 입력을 받을 수 있고 2테라플롭스의 병렬 연산 성능을 자랑한다. 무인차 시대를 앞당기기 위해 우리가 특별히 개발한 것이다.

우리 차세대 GPU에 대해서 말하겠다. 우선 내년에는 파스칼이 출시된다. 2018년에는 볼타라는 코드명의 GPU를 내놓을 예정이다. 파스칼은 최고 수준의 배정밀도 연산 성능이 가능하다. 메모리 대역폭을 넓히는 NV링크 기술이 들어가고 고대역폭메모리(HBM)가 탑재된 덕이다. 한국의 메모리 업체 두 곳(삼성전자, SK하이닉스)이 엔비디아에 HBM 메모리를 제공하게 될 것이다.

볼타는 이미 판매가 이뤄졌다. 미국 에너지성과 IBM이 엔비디아의 볼타 GPU를 구입해 세계에서 가장 빠른 슈퍼컴퓨터를 구축할 예정이다. 이건 지난달 오바마 대통령의 승인을 받은 건이다. 총 예산은 5억달러로 2016년부터 2022년까지 투자가 이뤄질 예정이다. 미국은 그간 슈퍼컴퓨터에 충분한 투자를 하지 않았다. 그러던 사이 중국과 일본, 유럽은 앞서갔다. 이제라도 투자를 해서 다행이다.

정리 <한주엽 기자>powerusr@insightsemicon.com

디지털데일리 네이버 메인추가
x