Sprung in neue IT-Sphären

Erster kommerzieller Quantencomputer am Markt

Das Computer History Museum in Mountain View in Herzen des „Silicon Valley“ stellte das Umfeld für die erste Präsentation eines kommerziellen Quantencomputers (Bild: Computer History Museum).

Ein Museum ist ein Museum, möchte man meinen: Es beschäftigt sich mit "musealen" Themen, die eher Retrospektive als Zukunft sind. Doch manchmal geschieht im Museum Unerwartetes, wie im Computer History Museum in Mountain View, Kalifornien: Dort stellte die in Burnaby (British Columbia, Kanada) ansässige D-Wave Systems den ersten kommerziell nutzbaren Quantencomputer der Welt vor.

von: Phil Knurhahn

Der erstmals öffentlich vorgestellte "Orion"-Rechner kann zur Zeit nur angemietet werden, kaufen kann man ihn noch nicht. Der Computer löste ein außerordentlich komplexes Problem mit dem Namen "NP-Complete" (NP steht für Nondeterministic Polynomial): Er braucht dafür nur wenige Rechenschritte, verglichen mit abertausenden Schritten, die konventionelle Supercomputer dafür benötigen.

Der NP-Rechenprozess gilt als "Heiliger Gral des Computings", weil mit jeder neuen Variablen die erforderliche Rechenarbeit auf mehr als das Doppelte ansteigt. Und jeder einzelne Lösungsweg muss komplett durchgerechnet werden und mit den anderen Lösungen verglichen, um ein optimales Ergebnis zu finden. Das ist einer der Gründe, warum heutige Rechner fast nie ein vollständiges und optimales Resultat in solchen Fällen erreichen. Die meisten Computer weichen dann auf Simulationen aus, um sich nicht in endlosen Berechnungen zu verzetteln. Nur die ganz großen "Number Cruncher" wie der am Lawrence Livermore National Laboratory können da mit einem Quantencomputer mithalten.

Mit Quanten arbeiten

 

MRAM (magnetische RAM) nutzen den Elektronenspin zur Informationsspeicherung. Sie sind damit die ersten in Serie gebauten Speicher, die mit einem Quanteneffekt arbeiten (Bild: Infineon)

Ein Quantencomputer kann alle denkbaren Lösungswege bei komplexen Probleme gleichzeitig evaluieren und aus den tatsächlichen Berechnungen eine optimale Lösung extrahieren. Das braucht meistens nur einige Rechenzyklen. Solch komplexe Probleme finden sich zumeist in der Quantenphysik selbst oder in der Bioinformatik.

So lässt sich die berühmte Schrödinger-Gleichung aus dem Jahr 1926 (sie beschreibt Bewegungsabläufe in der Quantenmechanik) bisher nur für Atommodelle mit maximal 30 Elektronen berechnen. Mit jedem zusätzlichen Elektron verdoppelt sich der Rechenaufwand. Ein Koffein-Molekül mit seinen 100 Elektronen zu analysieren erfordert einen Rechenaufwand, der das 100.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000-fache gegenüber der 30-Elektronen-Variante bedeutet. Da müssen selbst die größten heute bekannten Supercomputer passen.

Was für die klassischen Computer das Bit als kleinste Arbeitseinheit ist - in der Praxis also "0" und "1" - ist für den Quantencomputer das Quantenbit (Qubit). Das Qubit ist ein physikalisches System, das sich in zwei Zuständen (z.B. verschiedener Polarisation, die auch wieder als "0" und "1" interpretiert werden kann) befindet. Anders als bei normalen Computern können sich diese beiden Zustände aber auch überlagern. Und an dieser Stelle setzt der Quantencomputer an: Er arbeitet nämlich gleichzeitig mit den überlagerten Daten und muss nicht auf eine serielle Abarbeitung riesiger Bitabfolgen zurückgreifen.

Zwei Algorithmen haben in der Vergangenheit dabei geholfen, Datenverarbeitung auf Quantencomputern zu ermöglichen: Die Zerlegung großer Zahlen in ihre Primfaktoren (durch den Mathematiker Bruce Shor) und die gezielte Selektion von Datenelementen mit ganz bestimmten Eigenschaften aus riesigen Datenmengen (durch Lov Grover bei den Bell Laboratories). Während der erste Algorithmus die Primzahlzerlegung beschleunigt (was für die Quantenkryptografie von großer Bedeutung ist), macht der zweite Algorithmus die Suche nach bestimmten Informationskriterien schneller: Man muss nicht alle gespeicherten Informationen in Folge abfragen, sondern kann dies mit den überlagerten Qubits gleichzeitig bearbeiten.

 

Aufbau eines Quantencomputers

Theoretisch bieten sich für den Aufbau eines Quantencomputers drei Wege an:

     

  • Halbleiter-Lösungen, die mit der Steuerung von einzelnen Atomen arbeiten,
  • Optische Schaltkreise auf der Basis von Photonischen Kristallen oder
  • Supraleitende Elektronik.
  •  

Die Firma D-Wave Systems hat sich für den Supraleitungsweg entschieden. Unter den genannten Lösungswegen ist dies derjenige, der keine grundsätzlich neuen Technologien braucht und auch nicht in den atomaren Bereich vorstößt.

Aluminium und Niob sind die beiden Basismaterialien, aus denen der supraleitende Quantencomputer aufgebaut ist. Bei Raumtemperatur sind beides konventionelle Metalle. Geht man aber auf supraleitende Temperaturen in die Nähe des absoluten Nullpunktes hinunter, dann ordnen sich die Elektronen in dem Metallpaar Aluminium/Niob zu so genannten "Cooper-Pairs".

Cooper-Pairs weichen von den Eigenschaften üblicher Elektronen völlig ab: Normale Elektronen sind "Fermionen", Cooper-Pairs hingegen "Bosonen". Bosonen können untereinander den gleichen Quantenstatus einnehmen, Fermionen hingegen nicht. Haben also die Cooper-Paare in einem Supraleiter den gleichen Quantenstatus, dann sind alle Ladungsträger untereinander verkoppelt. Sie übernehmen quasi die Eigenschaften eines einzigen Cooper-Paares und verstärken diese. So werden die typischen supraleitenden Eigenschaften erst möglich, wie der Ohmsche Widerstand Null oder das Aussperren von äußeren Magnetfeldern.

Beides hilft beim Bau eines Quantencomputers. Der "Orion"-Rechner verfügt über 16 Qubits. Jedes Qubit behält während der Dauer der Berechnungen seinen Status wegen der Kühlung auf fast -273 °C. Weil vor jeder Berechnung die Verbindungen neu konfiguriert werden müssen, braucht es eine kurze Zeit, bis der eigentliche Rechenvorgang beginnt. Da ähnelt der Quantencomputer etwas den FGPAs aus der Halbleitertechnik. Wenn dann aber der Rechenvorgang startet, findet er die Lösung des Problems in absoluter Rekordzeit.

Ähnlich wie bei den FGPAs arbeitet der Quantencomputer mit speziellen Algorithmen, die die zeitlich aufwendigen Rechenprozesse drastisch verkürzen. Für die Nutzer ändert sich nichts viel: Außer in den speziellen Algorithmen können sie ihre Probleme auf vielen üblichen Softwareplattformen beschreiben. SQL beispielsweise ist standardmäßig einsetzbar. Auch der Grad der Abstraktion ist für jeden Softwarelayer einzeln definierbar. So muss der Anwender also keine neue Programmiersprache erlernen.

Schnelle Datenübertragung - mit Quanten

Was nutzt ein superschneller Computer, wenn er Hunderte von Kilometern weg ist und die Daten den mühsamen Weg über das IT-Netz machen müssen! Superschnell errechnete Ergebnisse will der Nutzer auch superschnell sehen, zumal dann, wenn man den Quantencomputer derzeit nur anmieten kann und die Gebühren sich nach der Nutzungszeit richten.

Auch hierfür öffnet die Quantenphysik neue Wege. Eine kürzlich veröffentliche Arbeit der Tohoku-Universität berichtete über die Übertragung von Quanteninformation über eine Entfernung von 1000 km. In konventioneller Technologie liegen die Grenzen bei etwa 150 km. In den für die Übertragung vorgesehenen "Quantum Repeatern" wird von der Tatsache Gebrauch gemacht, dass sich Quanteninformation unter bestimmten Bedingungen von einer Darstellungsform in eine andere wandeln lässt. So lassen sich Photonen (mit denen man große Entfernungen überbrücken kann) in Elektronen wandeln, deren Spin man für Berechnungen mit "0" und "1" nutzen oder aber in MRAM auch speichern kann.

Quantenteleportation - ein seltsames Arbeitsgebiet

Mit einem speziellen Aufbau gelang dem amerikanischen National Institute of Standards and Technology (NIST) die wirtschaftliche Erzeugung von Photonenpaaren, wie sie für die Quantenteleportation erforderlich sind (Bild: Migdall/NIST).

In das gleiche Gebiet fällt auch die Quantenteleportation. Professor Anton Zeilinger, der unbestrittene Wiener Quantenpapst, hat mal die Funktion der Quantenteleportation so erläutert:

"Die beiden Mitspieler bei der Quantenteleportation heißen Alice und Bob - sie stehen für die beiden ersten Buchstaben A und B im Alphabet. Alice besitzt ein Photon (C), dessen Polarisation sie aber nicht kennt. Sie möchte, dass Bob ein Photon in demselben Quantenzustand erhält. Die Übertragung der unbekannten Information erfolgt unter Zuhilfenahme eines so genannten verschränkten ("entangled") Photonenpaares. Alice unterzieht nun ihr eigenes Photon A und das zu teleportierende Photon C einer gemeinsamen Messung, bei der diese beiden Photonen miteinander verschränkt werden. In einem von vier möglichen Fällen ist die Verschränkung derart, dass die beiden Photonen A und C orthogonal zueinander polarisiert sind. Alice ruft dann Bob an, wenn dies der Fall ist. Da nun das Photon B orthogonal zum Photon A ist und weiter das Photon A orthogonal zum Photon C, ist Bobs Photon B identisch mit dem Photon C."

Da bei dieser Prozedur das zu übertragende Photon C unwiderruflich vernichtet wird, kann man auf solchen Überlegungen ein absolut sicheres Verschlüsselungssystem für die Informationsübertragung aufbauen. Hieran arbeiten zahlreiche Institute und Firmen sehr intensiv schon seit geraumer Zeit. Notwendig ist vor allem eine Photonenquelle, die das Photonenpaar erzeugt. Das ist mit üblichen optischen Medien sehr ineffizient. Kürzlich jedoch hat das amerikanische NIST (National Institute of Standards and Technology) eine Photonenquelle auf der Basis einer mikrostrukturierten optischen Faser geschaffen, die solche Photonenpaare gezielter als bisher generiert.

Toshiba hat eine absolut sichere Quanten-Datenübertragung mit 5,5 kbit/s über eine Entfernung von 25 km demonstriert - derzeit der höchste bisher erreichte Wert für ein reines Quantensystem.

Mit einem ersten praktischen Quantenschlüssel preschte 2002 die ID Quantique (ein Spin-Off der Universität von Genf) vor. Große internationale Namen wie NEC. Mitsubishi oder NTT folgten. Meist setzt man auf eine Kombination klassischer numerischer Verschlüsselung und Quantenkryptografie. Der Grund ist einleuchtend: Die Übertragungsraten sind hier höher und erreichen schon mal 1 Gbit/s. In den USA steht ein 2-Gbit/s-System vor der Zertifizierung beim NIST.

Noch ist der Markt nicht sehr groß: Er dürfte weltweit so zwischen 150 Mio. € und 200 Mio. € liegen, 300 Mio. € werden für 2009 erwartet. Aber wenn die großen Telekom-Anbieter erst einmal den international operierenden Banken entsprechende Angebote für eine hochsichere Datenübertragung machen, dann dürfte das neue Impulse fürs Geschäft geben. Immerhin werden täglich viel Milliarden Dollar elektronisch um die Erde bewegt.

Der Quantencomputer und seine Entwicklungsschritte

Die ersten Ideen für einen Quantencomputer stammen bereits aus den späten 70er und frühen 80er Jahren des letzten Jahrhunderts. Es waren namhafte Physiker und Computerspezialisten, die diese Überlegungen stützten: Charles Bennett (IBM Thomas J. Watson Research Laboratory), Paul Benioff vom Argonne National Laboratory, David Deutsch von der Universität Oxford und nicht zuletzt der legendäre Richard Phillips Feynman vom CalTech, Nobelpreisträger des Jahres 1965.

Im Jahr 2006 hatte die University of Illinois ein nur schwer vorstellbares Experiment mit einem einfachen optischen Quantencomputer durchgeführt: Dort wurde mit Quantencomputing ein Algorithmus ausgeführt, ohne dass dieser Algorithmus überhaupt lief. Das Experiment machte sich die Dualität von Photonen als Welle und Partikel zu nutze. Dabei können Quantenbits sich so überlagern, dass sie zugleich eine logische "0" und eine logische "1" zeigen können - für normale Computerspezialisten kaum verständlich.

Im Jahr 2004 ging das erste Quantencomputernetzwerk in Betrieb. Es war noch klein, aber immerhin wurde ein Anfang gemacht: Das Qnet verbindet die Harvard Universität in Cambridge (Massachusetts) mit dem Entwickler des Netzes, der BBN Technologies in Boston. Das Qnet ist das erste Kryptonetzwerk der Welt. Zwei schwach-kohärente Systeme laufen mit einer Taktrate von 5 MHz, sie sind über einen photonischen Schalter miteinander verbunden. Die Quantenverschlüsselung macht es unmöglich, die übertragenen Informationen ohne Schlüssel zu dekodieren. BBN ist kein Neuling in Computer-Hochtechnologie. Das Unternehmen ist von MIT-Professoren gegründet worden und hieß daher früher einmal "Bolt, Beranek & Newman". Es gilt als eines der Pionierunternehmen im Computing in den U.S.A. Ein führender Mitarbeiter von BBN wurde 2007 an die Spitze des GENI-Projekts gerufen, wo das Internet des 21. Jahrhunderts entsteht. Auch der Erfinder des E-Mails, Ray Tomlinson, stammte aus dem Unternehmen.

Weitere Artikel

NTT baut um für mehr Wachstum

Die NTT Corporation will Ende März nächsten Jahres eine neue...

Weiterlesen

SAP: Richter richtet's in CEE

Rudi Richter, Geschäftsführer von SAP Österreich, steigt zum...

Weiterlesen

Nahed Hatahet in VÖSI-Vorstand gewählt

Als neues Mitglied des Vorstands des "Verband...

Weiterlesen

Micro Focus: Neff wird Vice President Sales DACH

Alexander Neff ist ab sofort als Vice President Sales für...

Weiterlesen

MicroStrategy mit neuem VP für Central Europe

MicroStrategy, Anbieter von Enterprise Analytics- und...

Weiterlesen

SEO Sommerfrische Woche 6 – Seitengeschwindigkeit optimieren

Wer hat schon Zeit und Geduld, auf langsam ladende Seiten zu...

Weiterlesen

KI ist eine Chance für das IT Service Management

Herkömmliches ITSM genügt nicht, um die Herausforderungen,...

Weiterlesen

Wenn Firmengeräte auf Reisen gehen

Immer öfter landen auch Firmen-Handy oder -Laptop im...

Weiterlesen

SEO Sommerfrische Woche 5 – interne Links

Links sind ein wichtiger Rankingfaktor für Google. Wenn sie...

Weiterlesen

DSAG-Jahreskongress 2018

Beim Jahreskongress der Deutschsprachigen SAP-Anwendergruppe...

Weiterlesen

Digitalisierung ohne Open Source wäre nicht denkbar

"Wenn Sie sich die modernen Komponenten etwa im...

Weiterlesen

Auswirkungen der KI auf die Arbeitswelt

Die Digitalisierung und die neuen technologischen...

Weiterlesen

Tech Data: Aus 2 wird 1

Am 6. August vollzieht die Tech Data Österreich GmbH die...

Weiterlesen

1,5 Mio. Euro für schnellere optische Netze

Ein neuer, rein optischer Ansatz zur kohärenten...

Weiterlesen

SEO Sommerfrische Woche 4 – Bilder auf SEO-Hochglanz optimieren

Bilder sind Blickfang und Informationsträger zur gleichen...

Weiterlesen

Arnoldner wird CEO der A1 Telekom Austria Group

Der Aufsichtsrat hat heute die Bestellung von Thomas...

Weiterlesen

Tech Data bildet DACH-Region

Tech Data stellt die Organisation in der Region Deutschland,...

Weiterlesen

Eine der spannendsten Kombinationen der IT-Branche

Johannes Kreiner, Geschäftsführer der Sage GmbH, spricht im...

Weiterlesen

Snor neuer Director Security von A1 Digital

Ab sofort übernimmt Thomas Snor den neuen Security-Bereich...

Weiterlesen

Sicherheits-Container für Datenschutz unterwegs

Führungskräfte und Mitarbeiter, die viel unterwegs sind,...

Weiterlesen