Quantum Machine Learning in der Realität – VQC vs. SVM auf NISQ-Hardware

Erstellt am: 14. April 2026

Empirischer Vergleich eines Variational Quantum Classifiers (VQC) gegen eine klassische SVM – von der rauschfreien Simulation bis zur Inferenz auf echtem supraleitendem Quantenprozessor.

Die zentrale Fragestellung: Kann ein Variational Quantum Classifier (VQC) im NISQ-Zeitalter mit einer optimierten Support Vector Machine (SVM) konkurrieren – und was passiert, wenn man die Simulation verlässt?

Klassische Baseline: SVM mit RBF-Kernel

Als Vergleichsmodell dient eine Soft-Margin SVM nach Cortes & Vapnik (1995). Der RBF-Kernel bildet Eingabedaten

xR2x \in \mathbb{R}^2

in einen unendlich-dimensionalen Hilbertraum ab:

K(x,x)=exp(γxx2)K(x, x') = \exp\left(-\gamma \|x - x'\|^2\right)

Die optimale Hyperparameter-Kombination

(C,γ)(C, \gamma)

wurde via Grid Search mit stratifizierter Kreuzvalidierung ermittelt.

Quantenmodell: VQC-Implementierung in PennyLane

Der VQC (Schuld et al., 2020) wurde vollständig in PennyLane (Bergholm et al., 2018) implementiert. Die Architektur gliedert sich in drei Stufen:

  1. Datenkodierung via AngleEmbedding: Klassische Features
x1,x2[0,π]x_1, x_2 \in [0, \pi]

werden als Rotationswinkel in den Quantenzustandsraum

H(C2)2\mathcal{H} \cong (\mathbb{C}^2)^{\otimes 2}

eingebettet:

Uenc(x1,x2)=(IRX(x2))(RX(x1)I)U_{\text{enc}}(x_1, x_2) = (I \otimes R_X(x_2)) \cdot (R_X(x_1) \otimes I)

  1. Parametrisierter Ansatz – RY-RY-CNOT-Struktur: Ein einzelner Block verschränkt beide Qubits nach dem Rotationsschritt:

Ublock(θ1,θ2)=CNOT01(RY(θ2)RY(θ1))U_{\text{block}}(\theta_1, \theta_2) = \text{CNOT}_{0 \to 1} \cdot (R_Y(\theta_2) \otimes R_Y(\theta_1))

Durch Weight Sharing über

L=3L = 3

identische Schichten entsteht der finale Ansatz:

Uansatz(θ1,θ2)=(Ublock(θ1,θ2))3U_{\text{ansatz}}(\theta_1, \theta_2) = \left(U_{\text{block}}(\theta_1, \theta_2)\right)^3

Diese Architektur wurde gegenüber einem Alternativansatz (Fuster & Latorre, 2019) bevorzugt, der trotz hoher Performance auf komplexen Datensätzen an einem trivialen Sanity-Check (~60% Accuracy auf linear trennbaren Daten) scheiterte – ein Symptom pathologischer Optimierungslandschaften (Barren Plateaus, verschwindende Gradienten).

  1. Messung und Ausgabe: Als Observable dient der Pauli-
ZZ

-Erwartungswert des ersten Qubits:

M=σZIM = \sigma_Z \otimes I

Der Erwartungswert

E=M[1,1]E = \langle M \rangle \in [-1, 1]

wird via

y^=(E+1)/2\hat{y} = (E+1)/2

auf eine Klassenwahrscheinlichkeit abgebildet.

Training: Adam + Parameter Shift Rule

Als Kostenfunktion dient der MSE:

L(θ)=1ni=1n(yiy^i(θ))2\mathcal{L}(\theta) = \frac{1}{n} \sum_{i=1}^{n} \left(y_i - \hat{y}_i(\theta)\right)^2

Gradienten

θL\nabla_\theta \mathcal{L}

werden analytisch mittels der Parameter Shift Rule (PSR) auf dem Quantencomputer berechnet. Die Parameteraktualisierung erfolgt durch den Adam-Optimierer (Kingma & Ba, 2015), der Lernraten basierend auf Momenten erster und zweiter Ordnung adaptiv anpasst.

Simulation vs. NISQ-Hardware

Das Modell wurde in zwei Umgebungen evaluiert: einer rauschfreien Zustandsvektor-Simulation (default.qubit) und echter supraleitender Quantenhardware (133 Qubits, Heron-Architektur) mit

N=4096N = 4096

Shots pro Inferenzschritt.

Die Ergebnisse zeigen eine komplexe Realitätslücke: Während der Sanity-Check auf linear trennbaren Daten von 100% (Simulation) auf 60% (Hardware) kollabiert – verursacht durch Auslesefehler und Amplitude Damping (

10|1\rangle \to |0\rangle

-Relaxation, die einen systematischen Bias in Richtung

0|0\rangle

induziert) – bleibt die Performance auf strukturell robusteren Datensätzen identisch (86.67% vs. 86.67%).

Die ökonomische Analyse zeigt zudem: Quantum-Cloud-Inferenz kostet im Mittel ~769 USD für eine 10-minütige Aufgabe mit 4096 Shots, gegenüber ~0.23 USD/h für klassische CPU-Ressourcen. Das Hardware-Rauschen der NISQ-Ära in Kombination mit der aktuellen Preisstruktur stellt eine fundamentale Barriere für praktische Anwendbarkeit dar – bis Quantum Error Mitigation (QEM) und Noise-Aware Training (Training direkt auf verrauschter Hardware via PSR) diese Lücke schließen.

Quantum Machine Learning in der Realität – VQC vs. SVM auf NISQ-Hardware - Bild 1