양자역학 및 정보 이론
Quantum Info
3단계: 양자 컴퓨터는 실제로 어떻게 생겼나 — 하드웨어, QML, 그리고 NISQ 시대
1부: 이론적 기초 — 추상에서 물리로
2단계에서 우리는 큐비트(qubit)를 |0⟩과 |1⟩의 선형결합, 즉 **중첩 상태(superposition)**로 정의했고, 얽힘(entanglement)을 이용해 Grover와 Shor 알고리즘이 고전 컴퓨터보다 기하급수적으로 빠르게 문제를 풀 수 있다는 사실을 배웠다. 그런데 여기서 중요한 질문을 던져보자: 그 "큐비트"라는 것이 실제로 어디에 존재하는가? 고전 컴퓨터의 비트는 트랜지스터 안의 전압 차이라는 명확한 물리적 실체가 있다. 양자 컴퓨터의 큐비트는 어떤 물리적 대상에 대응되는가? 이것이 3단계에서 가장 먼저 답해야 할 질문이며, 이 질문이 양자 하드웨어 전체를 관통하는 핵심이다.
1단계에서 배운 슈뢰딩거 방정식을 기억해보자. 파동함수 ψ는 고립된 계에서 시간이 지나면서 아름답고 가역적으로 진화한다. 하지만 현실의 큐비트는 완전히 고립되지 않는다. 주변의 열적 요동, 전자기 잡음, 심지어 다른 원자와의 미세한 충돌이 큐비트를 끊임없이 자극한다. 그 결과 큐비트가 품고 있던 중첩과 얽힘이 환경 속으로 서서히 "새어나간다". 이 현상을 **결어긋남(decoherence)**이라 한다. 비유하자면, 조용한 호수에 던진 돌이 만드는 완벽한 원형 파문이 바람과 낙엽과 물오리에 부딪혀 결국 흐릿해지는 것과 같다. **결어긋남 시간(coherence time, 기호 T₂)**은 큐비트가 얼마나 오래 양자 상태를 유지할 수 있는지를 초 단위로 표현한 것이며, 이 수치가 길수록 더 많은 양자 연산을 수행할 수 있다. 따라서 T₂를 늘리는 것이 양자 하드웨어 개발의 궁극적 과제다.
[노트 기록] 결어긋남(Decoherence): 양자계가 환경과 상호작용하여 중첩과 얽힘을 잃는 과정. 결어긋남 시간 T₂: 큐비트가 양자 상태를 평균적으로 유지하는 시간. 큐비트 품질의 핵심 지표.
그렇다면 어떤 물리 시스템이 큐비트에 적합할까? 1995년 David DiVincenzo는 **DiVincenzo 기준(DiVincenzo Criteria)**이라는 다섯 가지 조건을 제시했다: ① 명확히 정의된 큐비트로 확장 가능한 물리 시스템, ② 큐비트를 초기 상태로 리셋할 수 있는 능력, ③ T₂가 게이트 연산 시간 t_gate보다 충분히 길 것(보통 T₂/t_gate > 10,000을 목표로 한다), ④ 보편적(universal) 양자 게이트 집합 구현 가능, ⑤ 특정 큐비트를 개별적으로 측정할 수 있는 능력. 이 다섯 기준은 "좋은 큐비트 플랫폼의 이력서 요건"과 같다. 지금부터 살펴볼 세 가지 주요 플랫폼은 모두 이 기준을 얼마나 잘 충족하느냐를 놓고 치열하게 경쟁 중이다. (출처: DiVincenzo, D. P., 2000, "The Physical Implementation of Quantum Computation," Fortschritte der Physik 48(9-11))
2부: 세 가지 큐비트 전쟁 — 초전도 vs 이온트랩 vs 광학
초전도 큐비트: 냉장고 속의 양자 컴퓨터
지구상에서 가장 차가운 장소 중 하나는 우주 깊은 곳이 아니라, IBM과 Google의 양자 컴퓨터 연구소다. 초전도 큐비트는 절대 영도(0 K = -273.15°C)보다 겨우 15 밀리켈빈(mK) 높은 온도에서 동작한다. 우주의 배경 복사 온도가 약 2.7 K임을 감안하면, 이것은 우주보다 약 180배 더 차가운 환경이다. 왜 이토록 극단적인 냉각이 필요한가?
초전도(superconductivity) 현상이 핵심이다. 특정 금속(알루미늄, 니오뮴 등)을 임계 온도 이하로 냉각하면, 전자들이 **쿠퍼 쌍(Cooper pair)**을 형성하여 전기 저항이 완전히 사라진다. 페르미온(fermion)인 전자 둘이 짝을 이루면 보존(boson)처럼 행동하여, 보즈-아인슈타인 응축처럼 모두 같은 양자 상태를 점유할 수 있다. 초전도 회로는 바로 이 쿠퍼 쌍의 집단적 양자 상태를 이용한다. 열적 에너지(k_BT)가 이 쿠퍼 쌍의 결합 에너지보다 작아야 하므로, 극저온이 필수 조건이다.
**조지프슨 접합(Josephson junction)**은 초전도 큐비트의 심장이다. 두 초전도체 사이에 약 1 nm 두께의 절연체를 끼워 넣으면, 1단계에서 배운 양자 터널링(quantum tunneling) 현상에 의해 쿠퍼 쌍이 절연체를 통과할 수 있다. 이 터널링 전류는 비선형 인덕턴스(nonlinear inductance)를 만들어내며, 이 비선형성이 결정적으로 중요하다. 1단계에서 배운 조화 진동자를 떠올려보자. 균일하게 배치된 에너지 준위를 가진 단순 조화 진동자라면, 에너지를 공급했을 때 어느 준위로 전이될지 선택적으로 제어할 수 없다. 그러나 조지프슨 접합의 비선형성 덕분에 에너지 준위들이 불균등하게 배치되어, 딱 |0⟩과 |1⟩ 사이의 전이만 선택적으로 조작할 수 있게 된다. 이것이 트랜스몬(transmon) 큐비트의 원리이며, IBM의 Eagle/Condor, Google의 Sycamore가 모두 이 방식이다. (출처: Koch, J. et al., 2007, "Charge-insensitive qubit design derived from the Cooper pair box," Physical Review A 76(4))
[노트 기록] 초전도 큐비트 핵심 구조: 조지프슨 접합 → 비선형 에너지 준위 → |0⟩, |1⟩ 선택적 제어. 동작 온도: 15 mK. 대표 큐비트 종류: 트랜스몬(transmon). t_gate ≈ 10100 ns, T₂ ≈ 10~500 μs.
초전도 큐비트의 강점은 **확장성(scalability)**이다. 기존 반도체 나노 공정 기술을 활용할 수 있어 큐비트 수를 늘리기 상대적으로 용이하고, 게이트 연산 속도가 10100 나노초(ns)로 매우 빠르다. 그러나 치명적인 단점도 있다. T₂가 10500 마이크로초(μs)로 짧고, 희석 냉동기(dilution refrigerator)라는 수억 원짜리 장비가 반드시 필요하며, 고주파 전자기 노이즈에 극도로 민감하다.
이온트랩 큐비트: 공중에 떠 있는 원자
상상해보자. 원자 하나를 공중에 붙들어 두고 레이저 빛으로 정밀하게 제어한다. 이온트랩(ion trap) 양자 컴퓨터의 기본 원리다. 이온(ion)은 전자를 잃어 양전하를 띤 원자다. 이터븀(Yb⁺) 또는 베릴륨(Be⁺) 같은 이온들이 **폴 트랩(Paul trap)**이라는 진동하는 전기장 구조 안에서 공중에 붕 떠 있게 된다. 양전하를 띤 이온이 진동하는 전기장의 합력에 의해 트랩 중심으로 당겨지는 원리로, 수십 개의 이온을 일렬로 배열할 수 있다.
큐비트 상태는 이온의 전자 에너지 준위 — 두 가지 특정 내부 상태 — 를 |0⟩과 |1⟩로 대응시켜 정의한다. 레이저 펄스(마이크로파 또는 가시광선)로 이 상태를 조작하며, 형광 발광 여부로 측정한다. 이온트랩의 압도적인 강점은 결어긋남 시간이다. 초전도의 수백 마이크로초와 달리, 이온트랩 큐비트는 수 초(second)에서 수 분(minute) 단위의 T₂를 가진다. IonQ와 Quantinuum(구 Honeywell Quantum Solutions)이 선두 주자다. 게이트 충실도(fidelity — 게이트가 의도한 연산을 얼마나 정확히 수행하는지의 백분율 지표) 면에서도 이온트랩은 99.9%를 넘어서며 초전도를 앞선다. (출처: Bruzewicz, C. D. et al., 2019, "Trapped-ion quantum computing: Progress and challenges," Applied Physics Reviews 6(2)) 그러나 레이저 시스템 자체가 복잡하고 고가이며, 이온 간 게이트 연산에 수십~수백 마이크로초가 걸려 초전도보다 1000배 이상 느리다. 그리고 이온 수를 늘릴수록 개별 이온을 제어하기 어려워져 확장성에 심각한 도전이 있다.
[노트 기록] 이온트랩 큐비트 핵심: 이온의 전자 에너지 준위 = 큐비트. T₂ ≈ 초분 단위 (초전도보다 압도적). t_gate ≈ 수십수백 μs. 장점: 긴 결어긋남 시간, 높은 게이트 충실도. 단점: 느린 속도, 확장성 한계.
광학 큐비트: 빛으로 만든 양자 컴퓨터
세 번째 접근법은 빛의 입자인 **광자(photon)**를 큐비트로 사용하는 광학(photonic) 양자 컴퓨터다. 광자의 편광(polarization) — 수직을 |0⟩, 수평을 |1⟩ — 또는 광자가 지나는 경로(path)를 큐비트로 삼는다. PsiQuantum과 Xanadu가 이 분야의 선도 주자다. 광학 큐비트의 가장 매력적인 특징은 상온 동작이다. 광자는 전자기적 상호작용이 매우 약하므로 극저온 냉각 없이도 결어긋남이 느리게 일어나며, 광섬유를 통한 장거리 전송이 자연스럽다. 2단계에서 배운 양자 키 분배(QKD)나 미래의 양자 인터넷에 광학 큐비트가 적합한 이유다. 그러나 결정적인 문제가 있다: 광자끼리 직접 상호작용하지 않는다. 양자 컴퓨팅에서 2큐비트 게이트(예: CNOT)를 구현하려면 두 큐비트가 서로 영향을 주고받아야 하는데, 광자는 서로를 무시하는 경향이 있다. 이를 해결하기 위해 보조 광자(ancilla photon)와 측정(measurement)을 결합한 선형 광학 방식이나 비선형 광학 매질을 활용하는 방법이 연구되고 있지만, 초전도나 이온트랩 대비 아직 성숙도가 낮다.
여기서 잠깐 스스로 생각해보자. 세 가지 방식 중 어느 것도 모든 DiVincenzo 기준을 완벽히 만족시키지 못한다. 왜 그런지, 그리고 이 세 플랫폼이 서로 다른 트레이드오프를 가지는 이유가 근본적으로 어디서 비롯되는지 스스로 노트에 정리해보라. 이것이 진짜 공학적 사고의 시작이다.
[노트 기록] 세 큐비트의 핵심 트레이드오프 축: 결어긋남 시간 T₂ (길수록 좋음) / 게이트 속도 1/t_gate (빠를수록 좋음) / 확장성 / 동작 온도 / 게이트 충실도. 이 다섯 축에서 세 플랫폼은 서로 다른 강점과 약점을 가진다. "완벽한 큐비트"는 아직 존재하지 않는다.
3부: NISQ 시대 — "노이즈가 있는 중간 규모 양자"의 시대
2018년 캘텍(Caltech)의 John Preskill 교수는 현재 우리가 사는 시대를 NISQ(Noisy Intermediate-Scale Quantum, 잡음이 있는 중간 규모 양자) 시대라고 명명했다. (출처: Preskill, J., 2018, "Quantum Computing in the NISQ era and beyond," Quantum 2, 79) "Intermediate-Scale"은 현재 양자 프로세서가 50~수천 개의 물리 큐비트를 가지고 있다는 의미고, "Noisy"는 모든 양자 게이트에 오류(error)가 섞인다는 뜻이다.
2단계에서 배운 양자 에러 보정(Quantum Error Correction, QEC)이 이 문제를 원리적으로 해결하지만, 현실은 냉혹하다. 완전한 QEC를 구현하려면 논리적 큐비트(logical qubit) 하나당 수백~수천 개의 물리적 큐비트(physical qubit)가 필요하다. 예를 들어, 현재 가장 유망한 표면 코드(surface code)에서 논리 에러율 0.1%를 달성하려면 논리 큐비트 하나에 약 1,000개의 물리 큐비트가 요구된다. 현재 IBM의 가장 큰 프로세서가 1,000개 물리 큐비트 수준임을 감안하면, 사실상 에러 보정을 완전히 적용했을 때 쓸 수 있는 논리 큐비트는 손가락으로 셀 수 있는 수준이다.
그렇다면 NISQ 시대의 양자 컴퓨터는 무용지물인가? 그렇지 않다. 에러 보정 없이도 유용성을 보여주는 NISQ 알고리즘이 활발히 개발되고 있으며, 그 핵심 철학은 **하이브리드 양자-고전 계산(hybrid quantum-classical computation)**이다. 양자 컴퓨터는 그것이 잘 하는 일(지수적 크기의 힐베르트 공간에 상태를 준비하고 측정하는 것)만 수행하고, 고전 컴퓨터는 최적화와 후처리를 담당한다. 이 루프가 반복되면서 점차 좋은 해에 수렴한다.
VQE와 QAOA
**변분 양자 고유값 분해기(Variational Quantum Eigensolver, VQE)**는 분자의 기저 상태 에너지를 계산하는 NISQ 알고리즘이다. 파라미터 θ를 가진 양자 회로 U(θ)로 시험 파동함수(ansatz, 독일어로 "시도"라는 뜻)를 준비하고, 해밀토니안 H의 기댓값 ⟨ψ(θ)|H|ψ(θ)⟩를 측정한다. 고전 최적화기가 이 기댓값을 최소화하는 θ를 찾는다. 변분 원리(variational principle)에 의해 어떤 시험 상태도 진짜 기저 에너지보다 낮은 에너지를 줄 수 없으므로, 최적화 결과는 기저 에너지에 수렴한다. 화학 반응 시뮬레이션이나 신약 개발에 응용이 기대되는 이유다.
**양자 근사 최적화 알고리즘(Quantum Approximate Optimization Algorithm, QAOA)**은 조합 최적화(combinatorial optimization) 문제를 푸는 알고리즘이다. 그래프의 최대 컷(Max-Cut) 문제를 생각해보자: 꼭짓점을 두 그룹으로 나눌 때 두 그룹 사이 에지의 수를 최대화하는 문제다. QAOA는 비용 해밀토니안 H_C와 혼합 해밀토니안 H_B를 번갈아 적용하면서 근사 해를 찾는다. 단계 수 p를 늘릴수록 더 정확한 해에 다가가지만, 회로 깊이가 깊어지면 NISQ 기계에서 누적 노이즈가 증가한다는 딜레마가 있다.
[노트 기록] NISQ 하이브리드 루프 (VQE, QAOA, VQC 모두의 공통 구조): ① 파라미터 θ로 양자 회로 실행 → ② 측정 및 기댓값 계산 → ③ 고전 최적화기로 θ 업데이트 → ① 반복. 이 루프가 NISQ 알고리즘의 핵심이다.
4부: 양자 기계학습(QML) — 데이터를 양자 회로에 태우다
VQC의 구조: 양자 신경망
고전 신경망을 떠올려보자. 파라미터(가중치) w를 가진 함수 f_w(x)를 정의하고, 훈련 데이터로 w를 조정하여 새로운 입력 x를 올바른 클래스로 분류한다. **양자 기계학습(Quantum Machine Learning, QML)**은 이 과정의 핵심을 양자 회로로 대체한다. 가장 실용적인 접근법은 변분 양자 회로(Variational Quantum Circuit, VQC) — 때로는 양자 신경망(Quantum Neural Network, QNN) 이라고도 불린다 — 이다. (출처: Cerezo, M. et al., 2021, "Variational quantum algorithms," Nature Reviews Physics 3(9))
VQC는 세 부분으로 구성된다. 첫째, 데이터 인코딩(data encoding): 고전 데이터 x를 양자 상태 |ψ(x)⟩로 변환한다. 가장 간단한 방법은 **각도 인코딩(angle encoding)**으로, 특징값 xᵢ를 회전 게이트 R_y(xᵢ)의 각도로 사용한다. 즉, |0⟩에 R_y(xᵢ)를 적용하면 cos(xᵢ/2)|0⟩ + sin(xᵢ/2)|1⟩이 된다. 둘째, 변분 레이어(variational layer): 학습 가능한 파라미터 θ를 가진 양자 게이트들 — R_x(θ), R_y(θ), R_z(θ) 같은 회전 게이트와 얽힘을 생성하는 CNOT 게이트 — 을 여러 겹 쌓는다. 이것이 고전 신경망의 은닉층(hidden layer)에 해당한다. 셋째, 측정 및 손실(measurement and loss): 큐비트를 측정하여 기댓값 ⟨Z⟩를 계산하고, 이를 예측값으로 삼아 고전 손실 함수 L(θ)를 계산한 뒤, 고전 최적화기(COBYLA, gradient descent 등)로 θ를 업데이트한다.
[노트 기록] VQC 3단계 구조:
- 인코딩: x → |ψ(x)⟩ (예: R_y(xᵢ) 게이트)
- 변분 레이어: 파라미터 θ를 가진 양자 게이트 레이어 (회전 게이트 + CNOT 얽힘)
- 측정: ⟨Z⟩ 계산 → 손실 함수 L(θ) → 고전 최적화기로 θ 업데이트
Barren Plateau: QML의 함정
VQC에는 중요한 함정이 있다. Barren Plateau(황량한 고원) 문제다. 파라미터 수가 많아지거나 회로가 깊어질수록, 손실 함수의 기울기(gradient)가 큐비트 수에 지수적으로 비례하여 작아져서 최적화가 사실상 불가능해지는 현상이다. 마치 광활하고 평탄한 사막에서 가장 낮은 지점을 찾으려는데, 어느 방향을 봐도 경사가 거의 없어 어디로 가야 할지 모르는 상황과 같다. (출처: McClean, J. R. et al., 2018, "Barren plateaus in quantum neural network training landscapes," Nature Communications 9(1)) 이것이 현재 QML 연구의 최전선에서 가장 활발히 논의되는 핵심 문제다. 고전 신경망도 vanishing gradient 문제가 있지만, QML의 Barren Plateau는 기울기가 큐비트 수 n에 대해 지수적으로(2^(-n)) 감소하는 훨씬 가혹한 문제다.
양자 우위: 진짜인가, 과장인가
양자 우위(quantum advantage) 또는 **양자 우월성(quantum supremacy)**은 양자 컴퓨터가 고전 컴퓨터로는 현실적인 시간 안에 풀 수 없는 문제를 푸는 것을 의미한다. Google은 2019년 53큐비트 시카모어(Sycamore) 프로세서로 "특정 무작위 회로 샘플링 문제에서 고전 슈퍼컴퓨터로 1만 년 걸릴 계산을 200초 만에 수행했다"고 주장했다. 그러나 IBM은 이후 개선된 고전 알고리즘으로 수 일 만에 유사한 결과를 낼 수 있음을 보였다. 양자 우위 주장은 항상 "현재 최선의 고전 알고리즘과 비교했을 때"라는 전제를 내포한다. 고전 알고리즘이 발전하면 양자 우위 주장이 약화될 수 있다. 현재로서는 실용적으로 의미 있는 문제에서의 진정한 양자 우위는 아직 입증되지 않았다는 것이 대부분 전문가의 견해다. 이것이 NISQ 시대가 흥미롭고 동시에 불확실한 이유다.
5부: 양자 노이즈 완화 — NISQ를 더 쓸 만하게
에러 보정(QEC)이 오버헤드가 너무 크기 때문에 NISQ 시대에는 에러 완화(error mitigation) 기법을 사용한다. 에러를 완전히 제거하는 것이 아니라, 통계적 사후 처리(post-processing)로 에러의 영향을 줄이는 방법이다. **영 노이즈 외삽(Zero-Noise Extrapolation, ZNE)**은 의도적으로 노이즈 수준을 달리하여 여러 번 실험을 실행한 뒤, "노이즈가 0일 때의 값"으로 외삽(extrapolation)하는 방법이다. 예를 들어 게이트를 늘려 노이즈를 증폭시킨 결과들을 이용해 원점 근방의 값을 추정한다. **확률 오류 소거(Probabilistic Error Cancellation, PEC)**는 노이즈 채널의 역연산을 확률적으로 적용하여 평균적으로 에러를 상쇄한다. 이론적으로 정확하지만 측정 횟수(샷 수)가 지수적으로 늘어난다. **측정 에러 완화(Measurement Error Mitigation)**는 측정 과정의 오류를 교정 행렬(calibration matrix)로 보정하며, 구현이 간단하여 가장 널리 쓰인다. (출처: Endo, S. et al., 2018, "Practical Quantum Error Mitigation for Near-Future Applications," Physical Review X 8(3))
프로젝트: 스스로 풀어보는 문제들
아래 세 프로젝트는 정답을 제공하지 않는다. 각 문제를 약 40분 동안 혼자 설계하고, 코드를 쓰고, 실험하고, 해석해보라. 막히는 부분은 Qiskit 공식 문서(qiskit.org), PennyLane 문서(pennylane.ai), 또는 arXiv를 직접 탐색하라. 모든 것을 알고 시작할 필요는 없다. 중요한 것은 스스로 생각하면서 만들어나가는 과정이다.
[프로젝트 A] 하드웨어 비교 분석 설계도 (하드웨어 이해도 40점)
문제: 초전도, 이온트랩, 광학 큐비트 세 가지 플랫폼을 DiVincenzo의 다섯 가지 기준 — ① 확장성, ② 초기화 용이성, ③ T₂/t_gate 비율, ④ 보편 게이트 구현 가능성, ⑤ 측정 충실도(fidelity) — 에 따라 각 항목을 15점으로 점수화하는 비교 매트릭스를 설계하라. 단순히 "좋다/나쁘다"가 아니라, 각 플랫폼의 실제 수치(T₂ 범위, t_gate, 2큐비트 게이트 충실도, 대표 기업/연구소 이름)를 실제 논문이나 공개된 하드웨어 스펙 문서에서 찾아 채워 넣어라. 그 다음, "만약 내가 2030년에 500논리 큐비트 규모의 양자 컴퓨터를 제작해야 한다면 어느 플랫폼을 선택하겠는가?"라는 질문에 대해 수치 근거를 바탕으로 주장하는 기술 에세이(300500자)를 한국어로 작성하라. 반드시 자신이 선택하지 않은 플랫폼의 가장 강력한 반론(counterargument)도 함께 제시하고, 그것이 왜 결정적이지 않은지 논리적으로 반박하라.
[프로젝트 B] VQC로 Iris 데이터 분류하기 (알고리즘 구현 40점)
문제: Qiskit(혹은 Cirq, PennyLane 중 하나를 선택)을 이용하여 2큐비트 VQC를 구현하고, 고전 기계학습의 표준 벤치마크인 Iris 데이터셋에서 두 종류의 꽃(setosa와 versicolor)을 분류하는 양자 분류기를 만들어라. 조건은 다음과 같다: 특징값으로는 꽃받침 길이(sepal length)와 꽃잎 길이(petal length) 두 가지만 사용하고, 인코딩은 각도 인코딩(R_y 게이트)을 사용하라. 변분 레이어는 최소 두 개 이상의 학습 가능한 파라미터를 포함하는 회전 게이트와 CNOT 게이트로 구성하라. 훈련은 COBYLA 또는 Adam 최적화기를 사용하여 손실 함수의 수렴 곡선을 그래프로 출력하고, 최종 테스트 정확도를 계산하라. 여기서 멈추지 말고 추가 탐구 문제도 생각해보라: 큐비트 수와 레이어 깊이(circuit depth)를 바꿔가면서 분류 정확도가 어떻게 달라지는지 실험하라. 그리고 파라미터 수를 매우 늘렸을 때 손실의 기울기가 어떻게 변하는지 관찰하고, 이것이 Barren Plateau와 어떤 관련이 있는지 스스로 해석해보라.
[프로젝트 C] 노이즈 완화 실험 (연구 발표 20점)
문제: Qiskit의 Aer 시뮬레이터를 이용하여 노이즈 모델(depolarizing noise)을 추가한 환경에서 양자 회로를 실행하고 ZNE를 직접 구현해보라. 먼저, 2큐비트 Bell 상태 |Φ⁺⟩ = (|00⟩ + |11⟩)/√2를 준비하는 회로를 만들어라. 이상적인(noiseless) 경우와 depolarizing error rate p = 0.01, 0.05, 0.1인 세 경우에서 ⟨ZZ⟩ 기댓값(이상적으로는 1이어야 한다)을 측정하고, 노이즈에 따라 어떻게 변하는지 그래프로 시각화하라. 그 다음, ZNE를 수동으로 구현하라: p = 0.01, 0.02, 0.04에서 ⟨ZZ⟩를 측정한 세 데이터 포인트에 1차(선형) 또는 2차 다항식을 피팅하여 p → 0 극한을 외삽하고, 이 추정값과 실제 이상적인 값(1.0)의 오차를 계산하라. 마지막으로 스스로 이 질문에 답해보라: ZNE가 효과적으로 동작하기 위해 노이즈 수준이 어느 범위 이내여야 하는가? 그리고 외삽에 사용하는 데이터 포인트 수나 차수(polynomial order)를 바꾸면 추정 정밀도가 어떻게 달라지는가?
세 프로젝트를 마쳤을 때, 너는 단순히 수식을 외운 수준을 훨씬 넘어서게 된다. 물리적 구현의 트레이드오프를 수치로 평가하고, 실제 양자 회로 코드를 작성하고, 노이즈를 실험적으로 다루며 완화하는 능력 — 이것이 오늘날 양자 컴퓨팅 연구 현장과 기업 R&D가 신입 연구자에게 요구하는 능력의 기초다. 1단계의 파동함수와 터널링, 2단계의 얽힘과 알고리즘, 그리고 이번 3단계의 하드웨어 트레이드오프와 QML이 하나의 연속적인 흐름으로 연결됨을 느낄 수 있을 것이다. 다음 4단계에서는 스케일을 원자핵 수준으로 대폭 확장하여, E=mc²가 담고 있는 실제 에너지의 크기와 핵분열·핵융합의 원리를 살펴볼 것이다.