AWS 기술 블로그

양자 컴퓨팅이란 무엇인가? – part 1

2025년을 맞이하여 그야말로 양자 컴퓨팅에 대한 관심이 매우 뜨겁습니다. 매일같이 언론에서는 양자 컴퓨팅과 관련된 기사가 쏟아지고 있으며, 아마존을 비롯한 유수의 빅테크 기업에서는 진일보한 양자 하드웨어를 계속해서 선보이고 있습니다. 또한 국내외 많은 기업들이 양자 컴퓨팅 기술을 이용한 여러 실험적인 연구들을 진행하고 있습니다. 이러한 상황에도 불구하고 양자 컴퓨팅의 높은 기술적 진입 장벽 때문에, 많은 사람들이 양자 컴퓨팅에 대해 정확히 이해하기가 매우 어려운 것이 현실입니다.

이번 블로그 시리즈에서는 제가 지난 2년간 양자 컴퓨팅과 관련하여 학습한 내용을 정리하여, 7회에 걸쳐 양자 컴퓨팅 입문자를 대상으로, 양자 컴퓨터의 다양한 배경과 관련 용어를 소개할 예정입니다. 우선 첫 번째 블로그에서는 양자 컴퓨터의 개념, 등장 배경, 역사, 양자 컴퓨터의 분류 방법, 접근 방법 등에 대해 소개할 예정 입니다.

양자 컴퓨팅 vs 양자 컴퓨터

경우에 따라 많은 언론에서 양자 컴퓨팅이란 용어와 양자 컴퓨터라는 용어를 혼용해서 사용하고 있습니다. 이 블로그에서도 두 용어를 일부 혼용하여 사용하고 있습니다. 밀접한 연관성 때문에 두 용어가 비슷한 개념으로 사용될 수 있지만, 엄밀히 말하면 약간의 차이가 존재합니다. 양자 컴퓨터는 양자역학적 현상을 활용하여 정보를 처리하는 물리적 장치를 의미하는 반면, 양자 컴퓨팅은 이러한 양자 컴퓨터를 사용하여 계산을 수행하는 방법론이나 과정을 의미합니다. 따라서 앞으로 이 블로그를 포함하여 다른 미디어 매체에서 두 용어를 접할 때, 이러한 차이가 있다는 것을 염두에 두시기 바랍니다. 이 블로그에서는 양자 컴퓨터와 관련된 내용 뿐만 아니라, 양자 컴퓨터를 이용한 계산 방법론인 양자 컴퓨팅에 대해 전반적으로 소개할 예정입니다.

2025년의 최대 핫 이슈, 양자 컴퓨터

2025년은 양자 역학 역사에서 특별한 의미를 지닙니다. 바로 독일 물리학자 베르너 하이젠베르크가 양자 역학의 수학적 기초를 정립한 ‘행렬 역학’을 발표한 지 100주년이 되는 해로, UN은 이 중요한 과학적 업적을 기리기 위해 2025년을 ‘국제 양자과학기술의 해’로 공식 지정했습니다.

이러한 역사적 의미를 반영하듯 산업계는 양자 컴퓨팅의 실용화를 위한 움직임을 가속화하고 있습니다. 세계 최대 IT·가전 전시회 CES 2025에서는 처음으로 양자 컴퓨팅 전용 트랙이 신설되었으며, 엔비디아의 글로벌 테크 컨퍼런스 GTC 2025에서도 양자 컴퓨팅 세션이 최초로 도입되었습니다. 특히 2024년 12월 구글을 시작으로, 마이크로소프트 및 아마존에서는 새로운 양자 프로세서를 차례로 선보이며 기술 경쟁의 열기를 더욱 높였습니다.

또한 글로벌 IT 리더들이 양자 컴퓨터 상용화 시점에 대해 갑론을박을 벌일 정도로, 양자 컴퓨팅에 대한 관심이 매우 뜨겁습니다. “5년 내 상용화가 가능하다”는 낙관론부터 “아직 20년은 더 필요하다”는 신중론까지, 글로벌 IT 리더들의 전망은 엇갈리지만 한 가지는 분명합니다. 양자 컴퓨팅이 가져올 기술적 혁신은 19세기 산업혁명이나 20세기 인터넷 혁명에 버금가는 문명사적 전환점이 될 것이라는 점입니다. 인류 역사상 가장 강력한 컴퓨팅 패러다임의 시대가 서서히 열리고 있습니다.

양자(quantum)와 양자 컴퓨터의 개념

양자 컴퓨터가 무엇인지 알아보기 전에, 우선 양자 컴퓨터를 포함하는 양자정보기술의 핵심 요소라고 할 수 있는 양자(quantum)라는 개념에 대해 소개하도록 하겠습니다. 양자라는 개념은 물질을 구성하는 원자와, 원자를 구성하는 극소 물질(원자핵, 전자, 양성자, 중성자 등)을 총칭하는 용어입니다. 이러한 미시 세계에서는 우리 눈에 보이는 세계와는 다른 물리 법칙이 적용됩니다. 바로 양자 역학(quantum mechanics)이라는 것이 적용됩니다. 일반인들이 양자 기술을 매우 어려워 하는 이유가, 아마도 우리의 보편적 상식을 뛰어넘는 양자 역학의 매우 독특한 현상 때문일 것입니다. 또한 양자는 입자와 파동이라는 두 가지 성질을 동시에 지니는 특징이 있습니다.

이 양자 역학에 포함된 중첩(superposition)과 얽힘(entanglement)이라는 특징에 정보기술을 결합한 것을 흔히 양자정보기술이라고 부릅니다. 양자 역학적 특징에 컴퓨팅 기술을 결합하면 양자 컴퓨팅 기술, 통신 기술을 결합하면 양자 암호통신 기술, 센서 기술을 결합하면 양자 센서 기술이 됩니다. 이 3가지 양자정보기술 중에서 미래에 가장 많은 혁신을 가져올 것으로 예상되는 분야가 바로 양자 컴퓨팅 분야입니다. 이 블로그에서도 양자 컴퓨팅 기술에 한정하여 소개하도록 합니다.

<그림 1. 양자정보기술의 분류>

그렇다면 양자 컴퓨터의 정의에 대해 좀 더 구체적으로 알아보겠습니다. 다양한 정의가 존재하겠지만, “슈퍼컴퓨터와 같은 고전 컴퓨터에서 해결하기 어려운 문제들을 중첩과 얽힘이라는 양자 세계에서 발생하는 양자 역학의 독특한 법칙을 사용하여 매우 빠르게 해결할 수 있는 컴퓨터”라고 말할 수 있습니다.

따라서 양자 컴퓨터의 동작 원리를 이해하기 위해서는 반복해서 나오는 용어인 중첩과 얽힘이라는 매우 독특한 현상에 대한 이해가 필수입니다. 이 두 용어에 대해서는 이 시리즈의 세번째 블로그를 통해 보다 자세히 설명하도록 하겠습니다. 또한 혹시나 고전 컴퓨터라 하여 매우 오래된 구식 컴퓨터를 떠올리는 분이 계실 수도 있으나, 양자 컴퓨터 업계에서는 엑사스케일(exa-scale) 슈퍼컴퓨터를 포함한 최신의 현대적 컴퓨터 모두를 고전 컴퓨터라 명칭하고 있습니다.

<그림 2. 계산 과학 관점에서 하드웨어의 역사>

양자 컴퓨터의 등장 배경

그렇다면 우선, 왜 최근에 양자 컴퓨터가 이토록 많은 주목을 받게 되었을까요? 여러 가지 이유들이 존재하겠지만 일반적으로 아래와 같은 3가지 사유로 귀결됩니다.

<그림 3. 인류 역사상 가장 뛰어난 슈퍼 컴퓨터, 엘 캐피탄(EL CAPITAN), 미 캘리포니아 로렌스 리버모어 국립연구소 소재>

첫번째로 기존 고전 컴퓨터의 한계 때문입니다. 고전 컴퓨터의 대표적 형태라 할 수 있는 슈퍼컴퓨터는 인류가 만들어낸 컴퓨팅 기술의 결정체라 할 수 있습니다. 그 중에서도 초당 1018번의 연산을 처리할 수 있는 엑사스케일(exascale) 슈퍼컴퓨터는 21세기 인류가 만들어낸 가장 강력한 컴퓨터입니다. HPC 업계에서는 이러한 엑사스케일 슈퍼컴퓨터를 꿈의 컴퓨터라고 부르고 있으며, 전세계에 단 3대만이 존재합니다. 엑사스케일 컴퓨터는 모든 인류가 1초에 1번씩 계산을 수행해도 4년 이상 걸리는 작업을 1초만에 수행할 정도의 엄청난 연산 능력을 보유하고 있습니다. 따라서 엑사스케일 컴퓨팅의 이러한 성능은 과학적 발견과 혁신을 가속화하고, 인류가 직면한 복잡한 문제들을 해결하는 데 큰 도움을 줄 것으로 기대됩니다. 그러나 이러한 괴물 같은 성능에도 불구하고 계산 과학 관점에서 여전히 해결되지 않는 인류의 난제들이 존재합니다. 또한 고전 컴퓨터는 고속 데이터 처리에 대한 폭발적 수요를 처리하기 위해, 지금까지 단위 시간내에 계산 횟수를 증가시키는 방식으로 기술이 개발되어 왔습니다. 이를 위해서는 병렬로 많은 컴퓨팅 노드들을 연결하는 이른바 클러스터링 작업이 필수인데, 엄청나게 넓은 상면공간 및 높은 전력 소비 등이 요구됩니다. 일례로, 그림4와 같은 인류가 개발한 역대 최고의 고성능 컴퓨터인 엘 캐피탄(EL CAPITAN)의 전력 소모량은 약 7만 가구 정도의 중소 규모 도시가 사용하는 전력 사용량과 맞먹습니다. 따라서 단위 시간당 계산 횟수를 증가시키기 위해 컴퓨팅 리소스를 병렬로 연결하는 전통적 방식은 한계가 명확합니다.

<그림 4. No.1 엑사스케일 슈퍼컴퓨터, 엘 캐피탄의 스펙(spec.)>

두번째로는 무어의 법칙의 한계입니다. 지금까지 인류의 삶을 획기적으로 개선시켜 주는데 핵심적인 역할을 수행한 무어의 법칙이 멀지 않아 종말을 맞을 것으로 예상됩니다. 무어의 법칙이란, 2년마다 반도체 칩에 집적되는 트랜지스터의 수가 2배로 증가한다는 경험적 법칙을 의미합니다. 무어의 법칙이 적용되는 동안 반도체 미세 공정 기술은 진화를 거듭해 왔습니다. 일례로 1987년 3um이던 반도체 공정은 2019년에는 5nm 까지 내려왔으며, 삼성전자는 2027년 1.4nm 공정 기반의 제품 양산 계획을 발표하였습니다. 그러나 이러한 반도체 미세 공정의 지속적인 기술 혁신에도 불구하고, 트랜지스터의 크기가 원자 크기인 0.1nm 만큼 작아지면 가로막힌 장벽을 그냥 통과해 버리는 현상인 양자 터널링(Quantum tunneling) 현상으로 인해 더 이상 트랜지스터의 기본 속성인 스위치의 기능을 수행하기 어렵게 됩니다. 즉 현재의 반도체 미세 공정 기법이 조만간 양자 스케일로 진입할 것으로 예상됨에 따라, 지금까지 지배해왔던 전통적인 칩 설계 방식을 통해서는 반도체의 성능을 비약적으로 향상시키기 어려워 질 것으로 예상됩니다. 따라서 상당한 시간이 소요되겠지만, 궁극적으로 이러한 한계를 극복하기 위한 돌파구가 바로 양자 역학에 기반을 둔 새로운 방식의 양자 컴퓨터라 할 수 있습니다.

마지막은 양자 기술 자체의 비약적 발전 때문입니다. 지난 약 100여년간 양자 기술은 꾸준히 진보를 거듭해 왔습니다. 특히 2000년대에 들어서면서 양자 컴퓨팅의 실험적 구현이 시작되었습니다. 양자 컴퓨터에서 사용되는 비트인 큐비트(qubit)에 대한 실험적 제어(2012년 세르쥬 아로슈, 데이비드 와인랜드 노벨 물리학상 수상) 뿐만 아니라, 아인슈타인도 죽기 전까지 인정하지 못했던 양자 얽힘 현상도 실험적으로 증명(2022년 알랑 아스페, 존 클라우저, 안톤 자일리거 노벨 물리학상 수상) 되었습니다. 이러한 양자 기술에 대한 실험적 증명으로 인해 양자 기술의 성공 가능성은 더욱 높아지고 있습니다. 이러한 흐름에 맞춰 글로벌 빅테크 기업들의 양자 컴퓨팅 산업 진출이 더욱 활발해졌습니다.

미래의 게임 체인저, 양자 컴퓨터

지금까지 양자 컴퓨터의 등장 배경에 대해 알아보았습니다. 해결하고자 하는 문제의 사이즈가 작은 경우에는, 양자 컴퓨터는 그림5에서 보는 바와 같이 성능 관점에서 고전 컴퓨팅과 큰 차이를 보이지 않습니다. 오히려 오늘날의 양자 컴퓨터는 단위당 처리 속도 관점에서 고전 컴퓨터보다 상대적으로 느린 연산 속도를 제공하는 것으로 알려져 있습니다.

그러나 해결하고자 하는 문제의 사이즈가 증가하게 되면, 그림5에서 보는 바와 같이 지수함수나 팩토리얼 문제와 같은 일부 문제에 대해, 고전 컴퓨터는 실행 시간이 기하 급수적으로 증가하게 됩니다. 즉 현실적인 시간내에 계산이 불가능합니다. 반면 양자 컴퓨터는 동일 문제에 대해 실행 시간이 완만히 증가하게 됩니다. 이렇게 실행 시간이 완만히 증가하는 이유는, 앞서 언급한 중첩과 얽힘이라는 양자 역학 고유의 현상을 이용하여 계산 횟수를 획기적으로 감소시키기 때문입니다. 따라서 특정 영역의 문제에 대해 양자 컴퓨터는 고전 컴퓨터 대비 매우 빠르게 연산 결과를 제공할 수 있습니다. 이렇게 양자 컴퓨터가 기존의 고전 컴퓨터 성능을 넘어서는 것을 양자 우위 또는 우월성(quantum supremacy)이라고 합니다.

<그림 5. 고전 컴퓨터와 양자 컴퓨터의 성능 비교>

그러나 현재의 양자 컴퓨터 기술은 아직 초기 단계에 머물러 있어 대부분의 실용적인 문제에서 기존 컴퓨터를 능가하는 성능을 보여주지 못하고 있습니다. 따라서 현재의 양자 컴퓨터는 주로 연구 도구로 사용되거나 특정 학술적 문제 해결에 적용되고 있으며, 광범위한 산업 분야에서의 실용적 활용은 여전히 미래의 과제로 남아 있습니다. 이는 양자 컴퓨터가 직면한 여러 기술적 장벽, 특히 양자 결맞음(coherence)의 유지와 오류 보정의 어려움 때문입니다. 양자 결맞음이란, 양자 중첩이나 얽힘과 같은 양자 시스템의 양자 상태가 잘 정의되고 예측 가능한 방식으로 유지되는 성질을 의미합니다.

양자 컴퓨터의 역사

양자 컴퓨터의 역사는 1981년 이론 물리학자인 리처드 파인만(Richard Feynman, 1965년 노벨 물리학상 수상)이 양자 역학의 원리를 활용한 계산 시스템의 개념을 최초로 제시하면서 시작되었습니다. 파인만은 양자 역학적 현상을 효율적으로 시뮬레이션하기 위해서는 양자 역학 자체의 원리를 활용한 새로운 유형의 컴퓨터가 필요하다고 주장했습니다.

이후 1994년 피터 쇼어(Peter Shor)는 양자 컴퓨팅 역사에서 기념비적인 알고리즘인, 양자 컴퓨터가 큰 수의 소인수분해를 효율적으로 수행할 수 있는 쇼어의 알고리즘(Shor’s algorithm)을 고안했습니다. 쇼어의 알고리즘은 기존 암호 체계에 혁명적인 영향을 미칠 수 있는 가능성을 보여주었으며, 양자 컴퓨팅의 실용적 잠재력을 증명하는 중요한 이정표가 되었습니다.

2010년대에 들어서는 양자 컴퓨터가 상업용으로 판매되기 시작하였습니다. 2011년도에 캐나다 기업 D-Wave Systems는 세계 최초의 상용 양자 컴퓨터 ‘D-Wave One’을 출시했습니다. 이 시스템은 양자 어닐링(Quantum annealing) 방식을 사용하여 특정 최적화 문제를 해결하는 데 특화되었으며, 미국의 방산 및 항공 전문 기업인 록히드 마틴(Lockheed Martin)에서 이 시스템을 처음으로 구매하였습니다.

2019년에는 구글이 양자 우월성(Quantum Supremacy)을 달성했다고 발표하여 양자 컴퓨팅 역사에 중요한 이정표를 세웠습니다. 일부 논란의 여지가 있기도 했습니다만, 54개의 큐비트(실제로는 53개의 큐비트만 동작)로 구성된 시카모어(Sycamore)라는 양자 칩을 이용하여 기존 최강 슈퍼컴퓨터로 1만년이 걸릴 것으로 예상되는 문제를 단 200초 만에 해결했다는 논문이 발표되면서 양자 기술의 구현 가능성 및 관심이 폭발적으로 증가하게 되었습니다. 이 논문은 양자 컴퓨팅이 단순한 이론적 가능성을 넘어 실질적인 기술로 자리 잡을 수 있음을 증명하였고, 이후 전 세계적으로 양자 컴퓨팅에 대한 연구와 투자가 가속화되었습니다.

<그림 6. 100만 번 이상의 조회수를 기록할 정도로 폭발적인 관심을 이끈 구글에서 발표한 시카모어와 관련된 네이처 논문>

이러한 발전을 거쳐 2025년 현재, 양자 컴퓨팅은 금융, 의약품 개발, 기후 모델링, 인공지능 등 다양한 분야에서 혁신을 이끌 것으로 기대되고 있습니다.

양자 컴퓨터의 분류법

양자 컴퓨터의 분류법은 여러 가지가 존재하나 크게 두 가지 관점에서 분류할 수 있습니다. 첫째는 문제 해결 방식에 따른 구분이고, 둘째는 오류 정정 능력에 따른 구분입니다.

문제 해결 방식에 따라 양자 컴퓨터는 게이트형(gate)과 어닐링형(annealing)으로 나뉩니다. 게이트형 양자 컴퓨터는 양자 게이트를 조합하여 다양한 알고리즘을 구현하는 범용 컴퓨팅 방식을 채택합니다. 이는 기존의 고전적 컴퓨터가 논리 게이트를 조합하여 다양한 계산을 수행하는 방식과 개념적으로 유사합니다. 게이트형 양자 컴퓨터는 이론적으로 모든 종류의 문제를 해결할 수 있는 범용성을 갖추고 있어 아마존, IBM, 구글 등 주요 빅테크 기업들이 이 방식의 개발에 집중하고 있습니다.

반면 어닐링형 양자 컴퓨터는 조합 최적화 문제 해결에 특화된 방식으로, 특정 유형의 문제만을 해결할 수 있는 제한된 범용성을 가집니다. 이 방식은 물리적 시스템이 자연스럽게 최소 에너지 상태를 찾아가는 원리를 활용합니다. 어닐링형 양자 컴퓨터를 만드는 대표 기업으로는 캐나다의 D-Wave가 있으며, 물류 최적화, 금융 포트폴리오 관리, 신약 개발 등 특정 산업 분야의 최적화 문제에 적용되고 있습니다.

참고로 제가 만나본 고객들의 경우 대부분 범용 컴퓨팅 방식인 게이트형 양자 컴퓨터에 많은 관심을 보이고 계시지만 최적화 문제에 관심이 많으신 고객들의 경우에는 여전히 어닐링 방식의 양자 컴퓨터에도 관심을 표현하고 계십니다.

항목

게이트형 양자 컴퓨터

어닐링형 양자 컴퓨터

기본 원리

큐비트를 양자 게이트로 조작하여 연산 수행 에너지 최소화 원리를 이용해 최적의 해 탐색

주요 용도

범용 연산 최적화 문제에 특화

응용 분야

암호화, 양자 시뮬레이션, 머신 러닝, 데이터베이스 검색 등 조합 최적화, 경로 최적화, 포트폴리오 관리 등

대표 알고리즘

쇼어의 알고리즘, 그로버 알고리즘 최적화 알고리즘

노이즈 민감도

노이즈에 매우 취약 상대적으로 노이즈에 강함

큐비트 개수

현재 약 50 ~ 100 큐비트 수준 약 2,000 큐비트 이상 구현 가능

장점

범용성이 높아 다양한 문제 해결 가능 최적화 문제에 효율적이며, 노이즈에 강함

단점

오류 보정이 어렵고, 큐비트 확장성에 제약 범용성이 낮아 특정 문제에만 적합

양자 게이트 예시

파울리 X/Y/Z, 하다마드 게이트, CNOT 등 해당 없음(게이트 기반이 아님)

<표1. 게이트형 양자 컴퓨터와 어닐링형 양자 컴퓨터의 차이점>

오류 정정 능력에 따른 분류로는 만능형과 비 만능형(NISQ) 양자 컴퓨터가 있습니다. 만능형 양자 컴퓨터는 오류 정정이 가능한 이상적인 형태로, 양자 상태의 불안정성과 외부 간섭으로 인한 오류를 효과적으로 보정할 수 있습니다. 이러한 오류 내성(fault-tolerance)을 갖춘 양자 컴퓨터는 아직 구현되지 않았으며, 이론적으로는 수백만 개의 물리적 큐비트가 필요할 것으로 예상됩니다.

현재 우리가 가지고 있는 양자 컴퓨터는 비만능형 또는 NISQ(Noisy Intermediate-Scale Quantum) 컴퓨터로 분류됩니다. 이는 50~100개 정도의 큐비트를 가지고 있으나 오류 정정 능력이 제한적인 과도기적 기술입니다. NISQ 컴퓨터는 노이즈와 오류에 취약하여 복잡한 계산을 수행하는 데에 한계가 있지만, 일부 특화된 양자 알고리즘을 실행할 수 있으며 양자 시뮬레이션, 최적화 문제, 머신 러닝 등 제한된 응용 분야에서 활용되고 있습니다.

양자 컴퓨터에 사용되는 양자 알고리즘 또한 만능형과 비 만능형으로 구분할 수 있습니다. 만능형 알고리즘이란, 만능형 컴퓨터 사용을 전제로 하는 알고리즘으로, 현재의 양자 컴퓨터에서는 이러한 알고리즘을 적용하여도 정확한 결과를 얻을 수 없습니다. 대표적인 만능형 알고리즘은 앞서 언급한 소인수 분해에 최적화된 쇼어의 알고리즘, 빠른 데이터 탐색이 가능한 그로버 알고리즘(Grover’s algorithm) 등이 존재합니다. 이와는 반대로 현재의 노이즈가 많은 양자 컴퓨터에서도 사용 가능하도록 고안된 것이 NISQ 형 알고리즘입니다. 그림7의 VQE(Variational Quantum Eigensolver, 낮은 비용 탐색), QAOA(Quantum Approximate Optimization Algorithm, 최적화)가 노이즈에 대한 내성이 강한 대표적인 알고리즘입니다. 대부분의 회사 및 연구기관에서는 현재의 양자 컴퓨터 기술의 한계를 인정하고 VQE나 QAOA 알고리즘과 같은 NISQ 에 적합한 알고리즘을 이용하여 연구를 진행중 입니다.

<그림 7. 양자 알고리즘의 분류>

이러한 분류 체계는 양자 컴퓨팅 기술의 현재 상태와 발전 방향을 이해하는 데에 중요한 기반을 제공합니다. 게이트형과 어닐링형의 구분은 양자 컴퓨터의 설계 철학과 적용 가능한 문제 영역을 나타내며, 만능형과 NISQ의 구분은 현재 기술의 한계와 미래 발전 목표를 보여줍니다. 양자 컴퓨팅 기술이 성숙해감에 따라 궁극적으로는 오류 정정이 가능한 대규모 게이트형 양자 컴퓨터가 실현될 것으로 기대되지만, 그때까지는 NISQ 형태의 하드웨어와 어닐링형 하드웨어가 특정 응용 분야에서 중요한 역할을 할 것으로 다수의 전문가들이 예상하고 있습니다.

양자 컴퓨터에 접근하는 방법

사용자가 양자 컴퓨터에 접근하는 방법은 크게 두 가지로 나눌 수 있습니다. 첫번째는 양자 컴퓨터 제조사와 직접 계약을 맺고 양자 컴퓨터 제조사의 다이렉트 서비스를 이용하거나, 양자 시스템을 직접 고객사에 설치하는 방식입니다. 이 경우에는 장기 계약이 필요하며(예를 들어 ‘x’년간 수억 원 규모), 특정 제조사의 단일 타입(초전도체, 이온트랩 등) 양자 하드웨어에만 접근할 수 있습니다. 주로 대형 연구기관이나 기업이 이 방식을 선택합니다. 만약 연구를 위해 여러 타입의 양자 하드웨어가 필요하다면, 이러한 양자 리소스를 제공하는 개별 기업들과 별도의 장기 계약을 맺는 것이 일반적입니다.

두번째는 퍼블릭 클라우드 컴퓨팅 서비스를 이용하는 방법입니다. Amazon Braket, Microsoft Azure Quantum 등 주요 클라우드 플랫폼을 통해, 클라우드 계정만 있으면 즉시 다양한 양자 컴퓨터에 접근할 수 있습니다. 이 방식은 사용량 기반으로 과금 되며, 여러 제조사의 양자 리소스를 한 곳에서 선택하여 사용할 수 있는 장점이 있습니다. 예를 들어, Amazon Braket에서는 현재, IonQ, Rigetti, IQM, QuEra 등과 같은 서드 파티(3rd party) 양자 하드웨어 업체의 다양한 양자 하드웨어를 제공하고 있습니다. 클라우드 기반 양자 컴퓨팅 서비스는 초기 투자 비용과 기술적 장벽을 낮추어 기업이나 개인이 물리적 하드웨어 없이도 손쉽게 양자 컴퓨팅의 강력한 계산 능력을 활용할 수 있도록 도와줍니다.

<그림 8. AWS(퍼블릭 클라우드)를 이용한 양자 컴퓨터 접근법>

맺음말

양자 컴퓨팅은 기존 컴퓨터의 한계를 극복할 차세대 기술로, 최근 산업계와 학계에서 매우 큰 주목을 받고 있습니다. 이번 글에서는 양자 컴퓨터의 개념, 등장 배경, 역사, 분류와 접근 방법 등 기초적인 내용을 살펴보았습니다. 아직 실용화까지는 여러 기술적 과제가 남아 있지만 양자 컴퓨터가 가져올 혁신적 변화는 이미 시작되었습니다. 다음 블로그에서는 양자 컴퓨터가 특히 강점을 보이는 문제 유형과, 실제로 활약이 기대되는 다양한 분야, 그리고 양자 컴퓨터의 생태계에 대해 구체적으로 설명할 예정입니다.

Sangman Cho

Sangman Cho

조상만 Solutions Architect는 AWS 입사 이후, Automotive 및 Manufacturing 고객의 클라우드 기반의 디지털 전환 업무를 지원하였으며, 현재는 AWS 코리아 전체의 고성능 컴퓨팅(HPC)과 양자 컴퓨팅 등 계산 과학 영역의 디지털 전환 업무를 지원하고 있습니다.