Quantum Machine Learning in der Realität – VQC vs. SVM auf NISQ-Hardware
Erstellt am: 14. April 2026
Empirischer Vergleich eines Variational Quantum Classifiers (VQC) gegen eine klassische SVM – von der rauschfreien Simulation bis zur Inferenz auf echtem supraleitendem Quantenprozessor.
Die zentrale Fragestellung: Kann ein Variational Quantum Classifier (VQC) im NISQ-Zeitalter mit einer optimierten Support Vector Machine (SVM) konkurrieren – und was passiert, wenn man die Simulation verlässt?
Klassische Baseline: SVM mit RBF-Kernel
Als Vergleichsmodell dient eine Soft-Margin SVM nach Cortes & Vapnik (1995). Der RBF-Kernel bildet Eingabedaten
in einen unendlich-dimensionalen Hilbertraum ab:
Die optimale Hyperparameter-Kombination
wurde via Grid Search mit stratifizierter Kreuzvalidierung ermittelt.
Quantenmodell: VQC-Implementierung in PennyLane
Der VQC (Schuld et al., 2020) wurde vollständig in PennyLane (Bergholm et al., 2018) implementiert. Die Architektur gliedert sich in drei Stufen:
- Datenkodierung via AngleEmbedding: Klassische Features
werden als Rotationswinkel in den Quantenzustandsraum
eingebettet:
- Parametrisierter Ansatz – RY-RY-CNOT-Struktur: Ein einzelner Block verschränkt beide Qubits nach dem Rotationsschritt:
Durch Weight Sharing über
identische Schichten entsteht der finale Ansatz:
Diese Architektur wurde gegenüber einem Alternativansatz (Fuster & Latorre, 2019) bevorzugt, der trotz hoher Performance auf komplexen Datensätzen an einem trivialen Sanity-Check (~60% Accuracy auf linear trennbaren Daten) scheiterte – ein Symptom pathologischer Optimierungslandschaften (Barren Plateaus, verschwindende Gradienten).
- Messung und Ausgabe: Als Observable dient der Pauli-
-Erwartungswert des ersten Qubits:
Der Erwartungswert
wird via
auf eine Klassenwahrscheinlichkeit abgebildet.
Training: Adam + Parameter Shift Rule
Als Kostenfunktion dient der MSE:
Gradienten
werden analytisch mittels der Parameter Shift Rule (PSR) auf dem Quantencomputer berechnet. Die Parameteraktualisierung erfolgt durch den Adam-Optimierer (Kingma & Ba, 2015), der Lernraten basierend auf Momenten erster und zweiter Ordnung adaptiv anpasst.
Simulation vs. NISQ-Hardware
Das Modell wurde in zwei Umgebungen evaluiert: einer rauschfreien Zustandsvektor-Simulation (default.qubit) und echter supraleitender Quantenhardware (133 Qubits, Heron-Architektur) mit
Shots pro Inferenzschritt.
Die Ergebnisse zeigen eine komplexe Realitätslücke: Während der Sanity-Check auf linear trennbaren Daten von 100% (Simulation) auf 60% (Hardware) kollabiert – verursacht durch Auslesefehler und Amplitude Damping (
-Relaxation, die einen systematischen Bias in Richtung
induziert) – bleibt die Performance auf strukturell robusteren Datensätzen identisch (86.67% vs. 86.67%).
Die ökonomische Analyse zeigt zudem: Quantum-Cloud-Inferenz kostet im Mittel ~769 USD für eine 10-minütige Aufgabe mit 4096 Shots, gegenüber ~0.23 USD/h für klassische CPU-Ressourcen. Das Hardware-Rauschen der NISQ-Ära in Kombination mit der aktuellen Preisstruktur stellt eine fundamentale Barriere für praktische Anwendbarkeit dar – bis Quantum Error Mitigation (QEM) und Noise-Aware Training (Training direkt auf verrauschter Hardware via PSR) diese Lücke schließen.