D-웨이브의 양자 컴퓨터는 최적화 문제만을 풀 수 있는 양자 어닐링 컴퓨터지만, 양자 컴퓨터에 대한 시장의 관심을 끌었다. 양자 컴퓨터를 개발하는 단체 중 가장 대표적인 곳이 바로 IBM이다. IBM은 양자 컴퓨터의 역사에 다대한 영향을 미쳤으며, IBM Q를 통해 전 세계 지성을 모아 양자 컴퓨터 에코시스템을 강화하고 있다.
인공지능, 가상현실 등의 발달로 처리할 데이터양은 늘어 가는데 집적회로의 한계는 가까워지고 있다. 그래서 트랜지스터로 만들어진 게이트 대신 양자역학의 원리를 연산법칙으로 사용하는 양자 컴퓨터가 대안으로 떠오르고 있다. 도대체 양자가 뭔지, 또 그걸로 어떻게 하여 대안이라는 걸까? 과학과 인연이 없던 기자가 양자부터 최근 화제가 되는 양자 컴퓨터까지, 배우는 마음으로 차근차근 들여다본다.
벨 연구소의 피터 쇼어는 1994년, 기존 컴퓨터에서는 불가능한 소인수분해를 빠르게 하는 양자 연상 알고리즘을 제안했다. 그리고 IBM은 2001년, 핵자기공명 방식의 7큐비트 양자 컴퓨터로 15를 소인수분해하는 데 성공했다.
D-웨이브는 양자 컴퓨터에 대한 시장의 관심을 이끌었다
D-웨이브는 2011년, 세계 최초로 양자 컴퓨터를 상용화했다. D-웨이브의 양자 컴퓨터가 정말로 양자 컴퓨터인지에 대해선 의견이 분분하나 양자역학의 원리를 이용했다는 건 업계에서 두루 인정하고 있다. 구글은 2015년, D-웨이브 2X로 945 바이너리 변수가 포함된 최적화 문제에서 싱글 코어 프로세서가 탑재된 기존 컴퓨터 대비 최대 1억배 빨리 결과를 도출했다고 발표하며 D-웨이브에 힘을 실어주었다.
D-웨이브의 양자 컴퓨터는 최적화 문제만을 풀 수 있는 양자 어닐링 컴퓨터지만, 양자 컴퓨터에 대한 관심을 충분히 끌었다. D-웨이브 이후 구글, 마이크로소프트, 인텔 등 글로벌 기업과 미국, 중국, 일본 등 주요국은 모든 문제를 풀 수 있는 범용 양자 컴퓨터를 만들기 위해 막대한 자원을 쏟아붓고 있다. 언젠가는 만들어야 할 범용 양자 컴퓨터다. D-웨이브를 통해 양자 컴퓨터의 상용화 가능성을 엿봤으니 타 집단들보다 빨리 만들어 기술 우위에 서고자 하는 생각인 것이다.
양자 컴퓨터를 개발하려는 이유
반도체 업계에서는 2010년대 후반 이후 무어의 법칙이 한계에 이르렀다고 보고 있다. 무어의 법칙은, 너무나도 유명하지만 굳이 한 번 더 적자면, 반도체 집적회로의 성능이 24개월마다 2배로 증가한다는 법칙이다.
인텔의 공동창립자 고든 무어(1929~)
무어의 법칙이 한계에 이르렀다는 징조를 가장 먼저 보인 곳은 인텔이다. 무어의 법칙을 만든 고든 무어가 창립한 인텔이 2016년, 자사 CPU의 공정주기를 2년에서 3년으로 전환한다고 발표하면서 기술발전의 한계를 간접적으로 토로했다.
인텔은 2007년부터 공정 미세화(틱)에 1년, 아키텍처 개발(톡)에 1년을 들여 공정을 발전시켰다. 이른바 틱톡 전략인데, 2016년에 최적화 1년을 추가하면서 전략을 수정한 것이다.
컴퓨터의 본질은 연산이다. 연산은 트랜지스터를 여러 개 연결하여 만든 논리 게이트를 조합한 논리 회로를 통해 구현된다. 컴퓨터의 발전은 곧 트랜지스터를 얼마나 많이 정해진 면적에 집적할 수 있느냐에 달려있다. 그동안은 개발자의 노곤함을 제외하면 문제가 없었다.
문제는 트랜지스터가 원자 수준으로 작아지면서 발생했다. 회로를 따라 흘러야 할 전자들이 회로 밖으로 빠져 나가는 터널 현상이 발생하면서 전류 제어가 점점 어려워 진 것이다.
(2018년 11월 기준) 세계 최고의 슈퍼컴퓨터 IBM 서밋
개별 반도체 칩의 성능을 올리기 어려워졌으므로 업계에선 컴퓨터의 성능을 높이기 위해 여러 반도체 칩을 탑재하는 방향으로 가고 있다. 2018년 11월 기준으로 세계에서 가장 뛰어난 슈퍼컴퓨터인 IBM의 ‘서밋’은 239만7천824개의 코어를 탑재하고 있다. 코어를 많이 탑재하는 것은 필연적으로 컴퓨터의 거대화와 막대한 전력 소모를 불러온다.
일본 교토 대학의 다케우치 시게키 교수는 일본의 슈퍼컴퓨터 케이(京)의 연간 전력 소비량이 일반 가정 3만 가구분에 해당한다고 말했다. 반면, 동일한 성능의 양자 컴퓨터라면 1/500의 전력을 소비할 것이라고 예측했다.
양자 컴퓨터는 경제적으로도, 환경보호 측면에서도 매우 필요한 것이다.
IBM의 양자 컴퓨터 개발사
양자 컴퓨터를 개발하는 단체 중 가장 대표적인 곳이 바로 IBM이다.
양자 컴퓨터의 역사에서 IBM이 차지하는 비중은 다대하다.
1972년에 IBM에 입사한 찰스 베넷은 양자정보 이론을 창안했다. 원자 크기에서 입자는 여러 다른 위치에 ‘중첩’된 채로 존재 할 수 있다. 두 입자는 ‘얽힘’ 상태를 보이기도 한다. 한 입자의 상태가 변할 때 동시에 다른 입자도 변한다. 이 양자 현상을 이용하면 기하급수적으로 긴 시간이 걸리는 연산을 효율적으로 수행할 수 있다는 사실을 깨달은 것이다.
1981년 IBM-MIT 계산 물리학 컨퍼런스 (출처: MIT)
1981년 5월, IBM과 MIT가 주관한 계산 물리학 컨퍼런스는 양자 컴퓨터의 진정한 시작이었다. 리처드 파인만이 양자역학의 원리로 구동하는 양자 컴퓨터 아이디어를 제시한 것이다. 파인만은 이와 관련된 논문을 1982년, 이론물리학회지에 발표한다.
베넷은 1984년에 양자암호에 대한 가능성을 담은 논문을 발표했으며, 1985년에는 베넷에게 영감을 얻은 옥스퍼드 대학의 데이비드 도이치 교수가 양자 컴퓨터의 구체적 실체를 발표한다.
1994년에는 쇼어가 양자정보 이론을 이용한 소인수분해 알고리즘이 고전정보 이론을 이용한 경우보다 효율적이란 사실을 증명한다. IBM에서 재직하던 이론물리학자 데이비드 디빈센초는 1996년, 양자 컴퓨팅의 7가지 조건을 발표하며 양자 컴퓨터의 기준을 세웠다.
그리고 1997년, IBM은 2큐비트 양자 컴퓨터 개발에 성공한다.
IBM "집단지성을 활용해봅시다"
위에서 언급한데로 IBM은 2001년, 7큐비트 양자 컴퓨터로 15를 소인수분해하는 데 성공했다. 그리고 2010년에 D-웨이브가 등장했다. D-웨이브가 조성한 시장의 분위기와 자사의 기술력을 토대로 IBM은 양자 컴퓨터의 상용화 가능성을 점쳤다.
IBM은 2012년 2월, 미국 물리학회지에 양자컴퓨터 개발이 가시권에 들어왔음을 시사하는 논문을 발표한다. 이후로 IBM은 계속해서 큐비트를 늘린 양자 프로세서를 공개하고 있다.
2016년 5월에는 클라우드 상에서 5큐비트 양자 프로세서에 접속하여 프로그래밍과 테스트를 진행할 수 있는 플랫폼, 퀀텀 익스피리언스(Quantum Experience)를 공개한다.
IBM Q 양자 컴퓨터
2017년 3월에는 세계 최초로 범용 양자 컴퓨터 상용화 계획을 발표한다. (범용이라는 수식어는 D-웨이브와 같이 최적화 문제만이 아닌 다양한 산업에 적용하는 것을 목표로 하기 때문에 붙었다.) 그와 동시에 수년 내에 50큐비트 양자 프로세서를 공개할 것이라는 'IBM Q' 시스템 로드맵을 발표한다.
그리고 두 달 뒤, 클라우드 상용 프로토타입 17큐비트 양자 프로세서와 16큐비트 실험용 양자 프로세서를 공개한다. 11월에는 20큐비트 시스템 IBM Q와 프로토타입 50큐비트 양자 프로세서를 발표한다.
4차 산업혁명 시대에 협업은 필수 조건이다. 한 기업만으로는 거대 프로젝트를 효율적으로 끌어갈 수 없다. IBM은 2017년 12월에 8개 글로벌 기업 및 4개 연구소 등 12곳과 협업해 20큐비트 양자 컴퓨터 기술 개발에 나선다고 발표했다.
참여 기업은 삼성전자, 혼다, 다임러, JP모건, 바클리즈, JSR, 나가세, 히타치 금속이다. 삼성전자는 양자 컴퓨팅이 반도체에 줄 영향을 연구하기 위해, 혼다와 다임러는 자율주행 기술과 자동차 신소재 개발을 위해, JP모건과 바클리즈는 금융 분야에서 양자 컴퓨팅을 응용하기 위해 IBM과 협력한다.
IBM은 미국 에너지부 산하 오크리지 국립 연구소, 영국 옥스퍼드 대학, 호주 멜버른 대학, 일본 게이오 대학을 기술 개발 허브로 삼고 전 세계 7대륙 9만 2천명의 연구자에게 양자 컴퓨팅 경험을 제공하고 있다. 그 사례만도 500만개를 넘었으며 100개의 논문이 나왔고 1500개 대학 등이 지금도 활발히 IBM Q를 사용 중이다.
다음 기사에서는 IBM이 예상하는 양자 컴퓨터의 적용 분야와 다른 기업의 사례를 살펴보고 양자 컴퓨터에 대한 회의론을 다뤄보겠다.