IBM’s Latest Research Paper Signals A New Era Of Quantum Computing Is Here
Quantenvorteil, ein wichtiger Meilenstein im Quantencomputing, bezieht sich auf das noch zu erreichende Stadium, in dem ein Quantencomputer die Leistung eines herkömmlichen Computers übertreffen kann. Im Wesentlichen geht es um den Vergleich der Rechenleistung zwischen Quanten- und klassischen Computern. Da es sich um ein so wichtiges Konzept handelt, kommt es nicht selten vor, dass gelegentlich eine wissenschaftliche Arbeit von einem Unternehmen oder einer Universität verfasst wird, in der behauptet wird, in einem engen Bereich des Quantencomputings Quantenvorteile erzielt zu haben.
In diesem Artikel wird ein neues Forschungspapier von IBM besprochen, das zeigt, wie Fehlerminderung eingesetzt wurde, um eine bessere Quantenleistung im Vergleich zu einem klassischen Supercomputer mit modernsten Näherungsmethoden zu erzielen. Dieses Experiment führte zu einigen der größten Quantenschaltkreise, die jemals auf einem Quantencomputer ausgeführt wurden.
Wir sind vielleicht noch nicht ganz am Ziel, aber Quantencomputing nähert sich eindeutig dem Quantenvorteil.
Schlüsselbereiche der Forschung für Quantenvorteile
IBM definiert den Quantenvorteil als eine signifikante Verbesserung der Laufzeit des Quantenalgorithmus für praktische Fälle gegenüber dem besten klassischen Algorithmus. Darüber hinaus wird erklärt, dass der zum Nachweis des Quantenvorteils erforderliche Algorithmus eine effiziente Darstellung als Quantenschaltkreise haben muss und dass es keinen klassischen Algorithmus geben sollte, der in der Lage ist, diese Schaltkreise effizient zu simulieren.
Bisher gab es keine nützlichen Anwendungen, die Quantenvorteile demonstrierten, und der Grund ist einfach: Die heutigen Quantencomputer sind zu laut, zu fehleranfällig und zu klein, um große, reale Probleme zu lösen. Bedauerlicherweise basieren die meisten Behauptungen über Quantenvorteile, die in Veröffentlichungen vorgebracht werden, entweder auf Zufallsschaltungs-Sampling oder Gauß-Boson-Sampling, die beide nicht als nützliche Anwendungen angesehen werden.
Laut IBM müssen drei Hauptprobleme gelöst werden, damit Quantenmaschinen nützliche Aufgaben ausführen können:
- Es wird eine Methode benötigt, um mit Quantenrauschen umzugehen.
- Qubits müssen auf große Zahlen skalierbar sein.
- Quantenprozessoren müssen über eine ausreichende Geschwindigkeit verfügen (gemessen in Schaltkreisschichtoperationen pro Sekunde oder CLOPS).
Es besteht ein direkter Zusammenhang zwischen dem Quantencomputing-Rauschen und der Größe eines Problems, das Sie bewältigen können. Die Kette ist einfach: Rauschen verursacht Fehler und unkorrigierte Fehler begrenzen die Anzahl der Qubits, die Sie in Ihre Schaltung integrieren können, was wiederum die Komplexität des Algorithmus begrenzt. Natürlich ist Fehlerkontrolle wichtig.
IBM blickt auf eine lange Geschichte der Fehlerkorrekturforschung zurück, die bis zu den Untersuchungen von David DiVincenzo, Charlie Bennett und John Smolin im Jahr 1996 zurückreicht. Im Jahr 2015 entwickelte IBM das erste System zur Erkennung von Quantenbit-Flip- und Phasen-Flip-Fehlern. Heutzutage ist in fast jedem Quantencomputerprogramm in Unternehmen und Hochschulen irgendeine Form der Fehlerkorrekturforschung im Gange.
Allerdings ist die Quantenfehlerkorrektur (QEC) ein komplexes technisches und physikalisches Problem, und eine wirklich zufriedenstellende Antwort darauf scheint noch viele Jahre entfernt zu sein. Dies ist wichtig, da die Skalierung eines Quantencomputers auf Zehntausende Qubits ohne Fehlerkorrektur einfach nicht möglich ist.
Andererseits glaubt IBM, dass Quantenvorteile ohne Fehlertoleranz möglich sind. Kürzlich wurde ein Artikel veröffentlicht, der zeigt, dass Quanten-Qubits und -Gates tiefer und umfassender eingesetzt werden können, als wir bisher dachten.
Neue Theorien, neue Lösungen
Das obige IBM-Diagramm vergleicht die Skalierung fehlermindernder Quantenschaltungen mit der Skalierung klassischer Computer. Zum ersten Mal hat IBM gezeigt, dass die Quantenfehlerminderung einen effizienteren Weg zum Betrieb von Schaltkreisen mit höherer Komplexität (und bei minimalem Anstieg der Simulationskosten) bietet, als dies mit klassischen Computern möglich ist.
Nutzenvorteil anstreben
Anstatt sich auf eine fehlertolerante Fehlerkorrektur zu verlassen, die noch einige Jahre entfernt ist, scheinen jetzt dramatische Beschleunigungen durch den Einsatz von Fehlerminderungs- und Fehlerunterdrückungstechniken möglich zu sein. IBM hat den Beweis für dieses Konzept in einem neuen Forschungspapier veröffentlicht, das in veröffentlicht wurde Natur mit dem Titel „Beweise für den Nutzen von Quantencomputern vor Fehlertoleranz“. Dieses Papier wurde in Zusammenarbeit zwischen IBM und Forschern der University of California, Berkeley, RIKEN iTHEMS und dem Lawrence Berkeley National Laboratory erstellt.
IBM nutzte seinen 127-Qubit-Prozessor Eagle R3, um 127 interagierende Spinzustände zu simulieren. Für die Simulation spielte jedes Qubit die Rolle eines Spins unter Verwendung von Zwei-Qubit-Gattern mit einer Tiefe von 60. UCBerkeley führte das entsprechende Problem mithilfe modernster Tensornetzwerktechniken auf leistungsstarken klassischen Supercomputern am National Energy Research Scientific Computing Center und an durch Purdue Universität.
Das Forschungsteam hat sich bewusst für ein Problem entschieden, das bekanntermaßen eine Herausforderung für klassische Hardware darstellt. Die Forschung war so strukturiert, dass ein Vergleich zwischen der Quantenlösung und der klassischen Lösung möglich war. Dies geschah durch abwechselnde Lösungsversuche zwischen den beiden Teams, der Wechsel von Clifford- zu Nicht-Clifford-Gates und die Variation der Gewichtung der Observablen.
Es gab Rechenbereiche des Problems, die dazu führten, dass die Brute-Force-Methoden des klassischen Supercomputers versagten. Doch als der Supercomputer ausfiel, geriet der Quantenprozessor nicht ins Stocken, sondern lieferte weiterhin Lösungen. Da der Arbeitsablauf einen Vergleich bei jedem Durchlauf erforderte, wurden in den Fällen, in denen keine tatsächliche klassische Lösung verfügbar war, Vergleiche mit den Quantenergebnissen immer noch mit fortgeschrittenen klassischen Näherungsmethoden durchgeführt. Diese Näherungslösungen zeigten, dass der Quantenprozessor genauere Ergebnisse lieferte als die klassischen Methoden.
Basierend auf der Leistung im Vergleich zu den Brute-Force-Methoden konnte die Quantensimulation im Vergleich zu den klassischen Näherungsmethoden immer noch ausgeführt werden und vernünftige Ergebnisse liefern. Insgesamt lieferte die Quantenverarbeitung eine höhere Genauigkeit und in kürzeren Zeiträumen.
Obwohl ein Vergleich des Stromverbrauchs nicht speziell Teil des Projekts war, gehen Schätzungen davon aus, dass der Stromverbrauch für Quantencomputing 1,4 MWh pro Tag und für klassisches Supercomputing 10–15 MWh pro Tag beträgt. Es scheint also, dass Quanten auch in dieser Hinsicht einen erheblichen Vorteil bieten.
Zukünftige Forschungsziele
Das traditionelle Denken stützt die Vorstellung, dass nützliche Quantenberechnungen ohne Fehlertoleranz nicht möglich sind. Obwohl das Papier von IBM keinen schlüssigen Beweis liefert, liefert es einen wichtigen Datenpunkt, der zeigt, dass aktuelle Quantencomputer durch den Einsatz von Fehlerminderung viel schneller als erwartet einen Mehrwert bieten können.
Wie in der obigen Grafik dargestellt, geht IBM davon aus, dass die Tür zu einem erfolgreichen Quantenvorteil im 100 x 100-Abschnitt des Diagramms liegt, der mindestens 100 Qubits mit einer Tiefe von 100 Gattern darstellt. IBM ist davon überzeugt, dass, wenn in diesem Teil des Diagramms ausreichend Untersuchungen Dritter durchgeführt werden, stichhaltige Beweise für den Quantenvorteil sichtbar werden könnten.
IBM führt den Erfolg des Experiments zu einem großen Teil auf die Qualität seiner Quantenhardware und neue Methoden zur Fehlerminderung wie PEC und ZNE zurück.
Die Roadmap von IBM fordert Fehlerminderung, um einen kontinuierlichen Entwicklungspfad zur Quantenfehlerkorrektur bereitzustellen. Sobald QEC erreicht ist, wird es uns ermöglichen, fehlertolerante Quantenmaschinen zu bauen, die Millionen von Qubits in einer quantenzentrierten Supercomputing-Umgebung ausführen. Diese Maschinen werden in der Lage sein, große Vielteilchensysteme zu simulieren, komplexe Lieferkettenlogistik zu optimieren, neue Medikamente und Materialien zu entwickeln, anspruchsvolles Finanzmarktverhalten zu modellieren und darauf zu reagieren und vieles mehr.
Fehlertolerante Quantencomputer werden signalisieren, dass eine neue Ära quantenzentrierter wissenschaftlicher Forschung angebrochen ist. Und mit dieser neuen Fähigkeit wird das Potenzial einhergehen, die Welt verantwortungsvoll zu verändern.
Jay Gambetta, IBM Fellow und Vizepräsident für Quantencomputing, diskutierte kürzlich die Ergebnisse des Papiers mit Patrick Moorhead von Moor Insights & Strategy.
Analystennotizen
- Fehlerminderung Ist Die führende Methode, von der IBM glaubt, dass sie die Lücke zwischen der fehleranfälligen Hardware von heute und den fehlertoleranten Quantencomputern von morgen schließen wird. Der Zwischenzweck der Fehlerminderung besteht darin, die frühzeitige Erzielung eines Quantenvorteils zu ermöglichen. IBM hat mehr kontinuierliche Forschung zur Fehlerminderung durchgeführt als jede andere Institution.
- Obwohl IBM bereits damit begonnen hat, Fehlerminderung einzusetzen, zeigt seine Roadmap einen umfassenderen Fokus auf Fehlerminderung ab 2024 und führt später im Jahrzehnt zu Fehlertoleranz.
- Während des oben besprochenen Projekts agierten die Forschungsteams wie ein Tischtennisspiel. Forscher von IBM Quantum und der University of California in Berkeley führten abwechselnd immer komplexere Berechnungen durch. IBM Quantum testete die Algorithmen auf dem 127-Qubit-Prozessor IBM Quantum Eagle, dann führten die Berkeley-Forscher die entsprechenden Berechnungen mit modernsten klassischen Näherungsmethoden auf den Supercomputern des Lawrence Berkeley National Lab und der Purdue University durch.
- Es ist wichtig anzumerken, dass IBM nicht behauptet, dass eine bestimmte, auf dem Eagle-Prozessor getestete Berechnung die Fähigkeiten klassischer Computer übersteigt. Andere spezialisierte klassische Methoden könnten bald korrekte Antworten für die von IBM getestete Berechnung liefern.
- Weitere Informationen zur Quantenfehlerkorrekturstrategie von IBM finden Sie in meinem vorherigen Artikel „IBM auf dem Weg, bis 2026 mithilfe von Fehlerminderung einen Quantenvorteil zu erzielen“.
Moor Insights & Strategy bietet oder hat kostenpflichtige Dienstleistungen für Technologieunternehmen wie alle Forschungs- und Analyseunternehmen der Technologiebranche bereitgestellt. Zu diesen Dienstleistungen gehören Recherche, Analyse, Beratung, Consulting, Benchmarking, Akquise-Matchmaking sowie Video- und Vortragssponsoring. Das Unternehmen hatte oder unterhält derzeit bezahlte Geschäftsbeziehungen mit 8×8, Accenture, A10 Networks, Advanced Micro Devices, Amazon, Amazon Web Services, Ambient Scientific, Ampere Computing, Anuta Networks, Applied Brain Research, Applied Micro, Apstra, Arm, Aruba Networks (jetzt HPE), Atom Computing, AT&T, Aura, Automation Anywhere, AWS, A-10 Strategies, Bitfusion, Blaize, Box, Broadcom, C3.AI, Calix, Cadence Systems, Campfire, Cisco Systems, Clear Software, Cloudera , Clumio, Cohesity, Cognitive Systems, CompuCom, Cradlepoint, CyberArk, Dell, Dell EMC, Dell Technologies, Diablo Technologies, Dialogue Group, Digital Optics, Dreamium Labs, D-Wave, Echelon, Ericsson, Extreme Networks, Five9, Flex, Foundries .io, Foxconn, Frame (jetzt VMware), Fujitsu, Gen Z Consortium, Glue Networks, GlobalFoundries, Revolve (jetzt Google), Google Cloud, Graphcore, Groq, Hiregenics, Hotwire Global, HP Inc., Hewlett Packard Enterprise, Honeywell, Huawei Technologies, HYCU, IBM, Infinidat, Infoblox, Infosys, Inseego, IonQ, IonVR, Inseego, Infosys, Infiot, Intel, Interdigital, Jabil Circuit, Juniper Networks, Keysight, Konica Minolta, Lattice Semiconductor, Lenovo, Linux Foundation, Lightbits Labs , LogicMonitor, LoRa Alliance, Luminar, MapBox, Marvell Technology, Mavenir, Marseille Inc, Mayfair Equity, Meraki (Cisco), Merck KGaA, Mesophere, Micron Technology, Microsoft, MiTEL, Mojo Networks, MongoDB, Multefire Alliance, National Instruments, Neat , NetApp, Nightwatch, NOKIA, Nortek, Novumind, NVIDIA, Nutanix, Nuvia (jetzt Qualcomm), NXP, onsemi, ONUG, OpenStack Foundation, Oracle, Palo Alto Networks, Panasas, Peraso, Pexip, Pixelworks, Plume Design, PlusAI, Poly (ehemals Plantronics), Portworx, Pure Storage, Qualcomm, Quantinuum, Rackspace, Rambus, Rayvolt E-Bikes, Red Hat, Renesas, Residio, Samsung Electronics, Samsung Semi, SAP, SAS, Scale Computing, Schneider Electric, SiFive, Silver Peak (jetzt Aruba-HPE), SkyWorks, SONY Optical Storage, Splunk, Springpath (jetzt Cisco), Spirent, Splunk, Sprint (jetzt T-Mobile), Stratus Technologies, Symantec, Synaptics, Syniverse, Synopsys, Tanium, Telesign, TE Connectivity , TensTorrent, Tobii Technology, Teradata, T-Mobile, Treasure Data, Twitter, Unity Technologies, UiPath, Verizon Communications, VAST Data, Ventana Micro Systems, Vidyo, VMware, Wave Computing, Wellsmith, Xilinx, Zayo, Zebra, Zededa, Zendesk , Zoho, Zoom und Zscaler. Patrick Moorhead, Gründer, CEO und Chefanalyst von Moor Insights & Strategy, ist Investor in dMY Technology Group Inc. VI, Fivestone Partners, Frore Systems, Groq, MemryX, Movandi und Ventana Micro.