Podcasts

Podcast mit Santanu Ganguly - Cisco

7
September
,
2021

Mein heutiger Gast ist Santanu Ganguly, ein Systemarchitekt von Cisco. Santanu hat ein neues Buch über Quantum Machine Learning veröffentlicht. Wir sprechen über dieses Buch, fliegende Qubits, die Herausforderungen bei der Einführung von Quantum Machine Learning in die Produktion und vieles mehr.

Hören Sie sich weitere Episoden an, indem Sie "Podcasts" auf unserer Seite Einblicke auswählen.

Die vollständige Abschrift finden Sie unten

Yuval: Hallo, Santanu. Und danke, dass Sie heute bei mir sind.

Santanu: Vielen Dank, Yuval. Danke, dass ich dabei sein durfte. Und vor allem vielen Dank, dass Sie meinen Namen richtig ausgesprochen haben. Ich bin wirklich dankbar.

Yuval: Mit Vergnügen. Also, wer sind Sie und was machen Sie?

Santanu: Mein Name ist Santanu Ganguly. Ich arbeite derzeit für Cisco Systems in Großbritannien. Eine meiner Aufgaben bei Cisco Systems ist heute die Mitarbeit im Lenkungsausschuss für Quantentechnologie, einem der internen Projekte. Und ich habe einen Hintergrund in Physik und Mathe. Ich habe mich schon immer für alles begeistert, was mit Wissenschaft zu tun hat, insbesondere für Quantencomputer. Ich arbeite also eng mit Projekten der britischen Regierung und einigen Finanzinstituten im Vereinigten Königreich zusammen. Das bin ich.

Yuval: Zunächst einmal herzlichen Glückwunsch zu Ihrem neuen Buch über maschinelles Quantenlernen. Könnten Sie mir bitte ein wenig darüber erzählen?

Santanu: Ich danke Ihnen vielmals. Ja. Es war eine großartige Gelegenheit, die sich mir bot, daran zu arbeiten. Ursprünglich dachte ich, es wäre einfach zu machen. Es war nicht annähernd so einfach, wie ich es mir vorgestellt hatte. Das Thema ist maschinelles Quantenlernen. Der Grund, warum ich dieses Thema gewählt habe, ist, dass ich mich sehr für maschinelles Lernen im klassischen Sinne interessiere, für das, was es leistet. Und ich bin noch begeisterter von der Quanteninformatik. Und ich habe mich schon immer für Quantencomputer interessiert. Ich habe einen Hintergrund in Mathe und Physik. Und in den letzten fünf, sechs, sieben Jahren, als das Quantencomputing für die Industrie immer relevanter wurde und Organisationen wie Google, IBM usw. begannen, Geld in diese Technologie zu pumpen, und sie relevante Entwicklungen hervorbrachte, wurde ich wirklich immer begeisterter.

In dem Buch geht es also um die Grundlagen des maschinellen Lernens mit Quanten, um die beteiligten Algorithmen und vor allem darum, eine Lücke zu schließen, die meiner Meinung nach in der Literatur zum maschinellen Lernen mit Quanten existiert, sozusagen.

So gibt es zum Beispiel monumentale Bände von Peter Wittek. Ich glaube, er hat 2011 das erste Buch über maschinelles Quantenlernen überhaupt geschrieben. Darauf folgte das monumentale Buch von Maria Schuld und Petruccione über "Supervised Learning in Quantum Machine Learning". Und auch das war ein großartiges Buch. Darauf folgte eine Explosion verschiedener Algorithmen, verschiedener Forschungsarbeiten in der Literatur und in den Forschungsmedien.

Eines der Dinge, die ich immer vermisst habe und mit denen ich anfangs selbst zu kämpfen hatte, als ich anfing, mich mit diesem Gebiet zu beschäftigen, ist die Frage, wie sich all diese Algorithmen, all diese Theorien, die sehr neu, sehr im Kommen und sehr aktuell sind, in Code umsetzen lassen. Als ich anfing, mich damit zu befassen, stellte sich heraus, dass nicht jeder Algorithmus auf jeder Quantencomputerplattform effizient funktioniert.

Zum jetzigen Zeitpunkt gibt es mehrere Varianten von Quantencomputerplattformen. D-Wave hat den ersten kommerziell erhältlichen Quantencomputer auf den Markt gebracht und verwendet das Annealing-Verfahren. IBM hat ein supraleitendes Qubit auf den Markt gebracht, das ein Gattermodell verwendet. Rigetti brachte ähnliche supraleitende Gattermodelle auf den Markt. Xanadu und PsiQuantum arbeiten an photonischen Quantencomputern.

Je länger ich mich mit diesen Algorithmen beschäftigte, desto mehr wurde mir klar, dass nicht jeder Algorithmus auf jeder Plattform effizient arbeitet. Zum Beispiel gibt es heute Studien, die behaupten, dass bestimmte NP-schwere Probleme, wie Maxcut, auf D-Wave-Computern mit QUBO effizienter funktionieren als auf Gate-Model-Computern mit Quantum Approximate Optimization Algorithms (QAOA). All diese Variationen und Herausforderungen, wenn es um die Anwendung von Algorithmen auf Plattformen geht, haben mein Interesse am Schreiben des Buches geweckt.

Daher deckt das Buch die meisten wichtigen Quantencomputer-Bibliotheken ab, die heute existieren. Es enthält Google Cirq, es behandelt Rigetti PyQuil und QVM. Es behandelt IBMs Qiskit. Es behandelt auch die Plattformen von D-Wave. Und um wirklich effizient beurteilen zu können, ob ich die Dinge richtig mache oder nicht, habe ich mit D-Wave zusammengearbeitet. Sie haben sich das Material angesehen, das ich in dem Buch über sie geschrieben habe. Und sie haben mir ihr Einverständnis gegeben, vor der Veröffentlichung weiterzumachen. Und dafür bin ich ihnen sehr dankbar. Das hat mein Interesse geweckt: Ich wollte etwas machen, das den Lesern eine Option bietet, einen Einstieg in alle wichtigen Plattformen und hoffentlich eine Vorstellung davon, welcher Algorithmus auf welcher Art von Plattform am besten funktioniert und wie man sie umgehen kann. Das war also der eigentliche Auslöser. Ich danke Ihnen.

Yuval: Sie haben erwähnt, dass manche Algorithmen auf manchen Maschinen besser funktionieren. Aber es gibt noch eine größere Frage. Ist maschinelles Quantenlernen heute schon nützlich? Oder wann erwarten Sie, dass es in einer Produktionsumgebung nützlich sein wird?

Santanu: Das ist eine sehr gute Frage. Meine Antwort darauf wäre, dass das maschinelle Lernen mit Quanten in bestimmten Fällen heute definitiv nützlich ist. Einer davon ist die Entdeckung von Medikamenten und die Modellierung von Molekülen. Das ist etwas, woran geforscht wird. Es ist ein aktuelles Thema. Aber das ist etwas, das auch schon funktioniert hat. Ich werde Ihnen ein Beispiel dafür geben. Die Penn State University hat unter der Leitung von Dr. Ghosh damit begonnen, Quantencomputer und maschinelles Lernen einzusetzen, um die Modellierung von Impfstoffen gegen das COVID-Virus zu untersuchen. Das ist also ein Beispiel dafür.

Ein weiteres Beispiel für die Erforschung und Anwendung des maschinellen Lernens mit Quanten ist der Finanzsektor. So zum Beispiel bei der Finanzrisikoanalyse, bei der Optimierung der Preisgestaltung für Finanzportfolios. So gibt es mehrere veröffentlichte Arbeiten von Goldman Sachs und Chicago Quantum, die sich mit einer Quantenversion des Finanzwesens befassen.

Der Grund, warum die Quantenperspektive untersucht wird, ist die Fülle an Wahlmöglichkeiten, die man hat. In einer Umgebung für Quantencomputing und maschinelles Lernen hat man alle möglichen probabilistischen Möglichkeiten, die man normalerweise in einer binären Umgebung nur schwer findet. Es wird also genutzt, und mit zunehmender Nutzung werden wir hoffentlich mehr und mehr darüber lernen, wie man verschiedene Anwendungen mit verschiedenen Algorithmen auf verschiedenen Plattformen optimieren kann. Und wir werden uns so verbessern, wie wir es bei unseren eigenen klassischen Standardcomputern getan haben. Als ich ein Kind war, war ein klassischer Computer ein großes Ding, das auf meinem Schreibtisch stand. Jetzt habe ich ihn buchstäblich in der Tasche. Je mehr wir also benutzen, desto mehr sollten wir lernen.

Yuval: Wenn Sie davon sprechen, dass sie auf verschiedenen Computern laufen, dann meinen Sie wohl unterschiedliche Architekturen. PsiQuantum gegen Honeywell, und nicht so sehr Rigetti gegen IBM, beides gate-basierte Computer, ist das richtig?

Santanu: Das ist richtig. Ganz genau. Es gibt verschiedene Architekturen. Und dann gibt es noch andere Aspekte sowohl des maschinellen Lernens als auch der Kommunikation. Nehmen wir an, wir haben zwei verschiedene Computer, Quantencomputer. Diese Quantencomputer könnten zwei IBMs sein, ein IBM und ein Rigetti, ein D-Wave und ein Rigetti, was auch immer. Wie können diese beiden Computer miteinander kommunizieren? Das wurde bisher noch nicht erforscht. Und auch hier handelt es sich um ein großes Forschungsgebiet, an dem ich und viele andere Forschungseinrichtungen beteiligt sind, denn es stellt sich die Frage, wie man Informationen von einer Qubit-Ebene auf eine Ebene bringt, auf der man mit einer anderen Quantenplattform kommunizieren kann. Vor allem, wenn es sich um eine optische Ebene handelt.

Das ist im Moment alles, was wir wissen. Wir denken, dass die Optik das Kommunikationsmedium sein sollte, aber Sie haben eine supraleitende Quantenplattform bei minus 273 Grad Celsius, also fast null Grad Kelvin. Und von dort aus muss man die Informationen auf eine optische Ebene bringen und dann miteinander kommunizieren. Es gibt also Forschungseinrichtungen, z. B. eine an der Universität Berkeley, die sich seit langem damit beschäftigt. Man nennt es fliegende Qubits. Im Grunde genommen fliegt man die Qubits von einem Energieniveau zum anderen und beginnt damit, sie über die Kommunikationsbarriere zu transportieren. Ja, die architektonischen Unterschiede spielen also eine große Rolle, ebenso wie die Grundlagenforschung und die Anwendung, die wir in Betracht ziehen.

Yuval: Wenn ich nun in einem kommerziellen Unternehmen arbeite, chemische Forschung oder Portfolio-Optimierung betreiben und maschinelles Lernen ausprobieren möchte, muss ich dann von vornherein entscheiden, auf welcher Hardware-Architektur ich es laufen lassen will? Woher weiß ich, ob dies am besten auf D-Wave oder IBM oder etwas anderem läuft?

Santanu: Im Moment gibt es zwei Möglichkeiten. Weg Nummer eins ist eine Art Näherung. Man rät also: Okay, ich lasse einen Maxcut-Algorithmus laufen, wird das auf einem D-Wave oder einem IBM besser funktionieren? Und dann probiert man es aus. Das ist also die eine Möglichkeit. Der andere Weg ist blindes Ausprobieren. Wie man diese Unterschiede zwischen den verschiedenen Plattformen und die Anwendbarkeit oder besser gesagt die Effizienz verschiedener Algorithmen auf verschiedenen Plattformen auflösen kann, könnte man herausfinden, und ich glaube, dass verschiedene Start-ups daran arbeiten.

Und wenn nicht, gibt es andere Quantencomputerfirmen, die darüber nachdenken, Stacks auf der physikalischen Quantencomputer- und Kommunikationsebene aufzubauen, wo wir eine Art Orchestrierungsebene haben, die die physikalische Ebene darunter sozusagen unsichtbar macht. Mit anderen Worten, dem Nutzer wäre es egal, ob die Plattform, auf der er programmiert, eine IBM oder eine D-Wave oder was auch immer ist, solange er weiß, was er will, welchen Algorithmus er will, entschuldige bitte, er programmiert es. Und der zugrunde liegende Software-Stack wählt dann die beste Plattform für ihn aus und ermöglicht ihm, darauf zu programmieren.

Daran wird in der Forschung gearbeitet, und möglicherweise gibt es ein oder zwei Start-ups, die sogar die erste Generation von Lösungen für diese Probleme haben. Dies könnte also eine weitere Möglichkeit sein, diese Ungleichheit in der Architektur, einer darunter liegenden Schicht, zu beheben.

Yuval: Wenn wir uns anschauen, wo wir heute beim maschinellen Lernen stehen, und dann vorspulen und sagen: Okay, was braucht es? Was muss passieren, damit es ein wirklich nützliches Werkzeug ist, das über ein oder zwei spezifische Anwendungsfälle hinausgeht? Eine Sache, die Sie erwähnt haben, ist die Abstraktionsebene oder die Fähigkeit, wie bei Classiq, von einem funktionalen High-Level-Modell zu einem Quantenschaltkreis zu wechseln, so dass man nicht im Voraus entscheiden muss, welche Hardware man verwendet. Der zweite Punkt ist natürlich eine Verbesserung der Rauscheigenschaften und der Anzahl der Qubits. So kann man größere Modelle und längere Algorithmen verwenden. Gibt es noch etwas anderes, ein drittes oder viertes Element, das Ihrer Meinung nach fehlt, damit sich das maschinelle Lernen mit Quantenmechanismen durchsetzen kann?

Santanu: Ich würde nicht sagen, dass es fehlt, es wird wahrscheinlich erforscht, nicht wahrscheinlich, es wird definitiv erforscht, und es wird daran gearbeitet. Und das ist im Grunde die Kohärenz. Sie erwähnten Fehler und auch Ungleichheiten und eine Abstraktionsschicht. Abgesehen davon wird also nicht alles durch Quantencomputing oder maschinelles Lernen optimiert oder sinnvoll optimiert werden können. Wenn Sie zum Beispiel PowerPoint im Netzwerk verwenden, macht es keinen Sinn, es auf einem Quantenkanal laufen zu lassen, weil PowerPoint in einem klassischen Netzwerk viel besser funktionieren würde. Es wird also in Zukunft - und aus futuristischer Sicht - spezifische Anwendungen geben, für die maschinelles Lernen nützlich sein wird.

Um auf Ihre Frage zurückzukommen: Um diese Probleme anzugehen, müssen wir die grundlegende Qubit-Verarbeitung verfeinern. Im Moment ist die Art und Weise, wie physische Qubits erzeugt werden, nicht perfekt. Der Prozess selbst muss also optimiert werden, und dann brauchen wir natürlich mehr Qubits. Derzeit verfügt ein echter Quantencomputer über etwa 50 bis 53 Qubits. Und die meisten Algorithmen, die derzeit getestet werden, werden an Simulatoren getestet. Und wenn man nicht genug Qubits braucht, laufen sie auf der eigentlichen Plattform. Wir brauchen also diese physikalische Schicht. Wir brauchen die Abstraktionsschicht.

Und die andere Option und Herausforderung ist natürlich die Skalierbarkeit. Das Problem muss also sinnvoll sein. Und bei einem sinnvollen Problem müssen wir es skalieren. Ich werde Ihnen ein Beispiel geben. Sie haben vielleicht im Internet gesehen, dass in Südostasien eine Studie zur Verkehrsoptimierung durchgeführt wurde. Die Stadt, die sie sich ausgesucht haben, hat ein enormes Verkehrsaufkommen. Dann wurde eine Studie zum maschinellen Lernen durchgeführt, die auf einigen Randbedingungen basierte, wie z. B. der Entfernung und dem Arbeitsort der Menschen, dem Weg zu einem vernünftigen Verkehrsaufkommen und so weiter und so fort. Und dann ein optimiertes Modell, das mathematisch optimiert ist. Wenn man sich das Diagramm anschaut, sieht man, dass der Algorithmus für maschinelles Lernen die Fahrer von einem Punkt zum anderen in der Stadt schickt, und nicht über einen der schnellsten möglichen Wege. Das geschieht zwar unter Zeitdruck, aber wie viele Leute kennen Sie, die, wenn sie in fünf Kilometern von A nach B fahren können, einen 20 Kilometer langen Umweg nehmen, um 10 Minuten zu sparen? Nicht viele.

Wir müssen also herausfinden, wie praktisch es ist, diese Dinge zu betreiben. Wird es tatsächlich eine praktische Lösung für das anstehende Problem sein? Und wie lassen sich diese Abfragen in einer Rushhour-Plattform skalieren? In einer Finanzumgebung zum Beispiel kann es zu Hunderttausenden von Abfragen kommen. Können all diese Abfragen durch maschinelles Lernen effizient bearbeitet werden? Oder würde es 50:50 sein? Einige klassisch, einige quantenbasiert? Das sind also Bereiche, in denen wir mehr Klarheit brauchen. Und was noch wichtiger ist: Sobald wir Klarheit haben, brauchen wir mehr Entscheidungsfindung in Echtzeit. Es sollte also eine Ebene geben, sei es eine KI-gesteuerte oder eine manuell gesteuerte, die sagt: Okay, dies ist am besten mit Quanten- oder mit klassischer Technologie zu machen - geht euren eigenen Weg, und hier ist etwas Magie. Das ist also meine Meinung dazu.

Yuval: Da wir uns dem Ende unseres heutigen Gesprächs nähern, haben wir viel über maschinelles Lernen mit Hilfe von Quanten gesprochen, aber natürlich gibt es auch andere Bereiche des Quantencomputers, die Verteilung von Quantenschlüsseln und andere. Gibt es etwas Bestimmtes, das Sie dazu bewogen hat, sich auf das maschinelle Lernen mit Quanten zu konzentrieren?

Santanu: Ja, grundsätzlich ist das Quantencomputing von großem Interesse. Mit dem Quantencomputing verbunden ist heute die große Frage der Sicherheit. Auch das ist von großem Interesse. Die andere Sache von großem Interesse ist die Quantenfehlerkorrektur. Es gibt Aspekte der Quantensicherheit und der Quantenfehlerkorrektur, die beide durch maschinelles Quantenlernen angegangen werden können: Verstärkungslernen oder überwachtes Lernen oder unüberwachtes Lernen, ein solcher Algorithmus. Und es gibt Forschungen und Studien, die dazu laufen. Mein Interesse gilt also genau diesen Bereichen, und hier wurde das maschinelle Lernen interessant, weil es tatsächlich einige ernsthafte unbeantwortete Fragen im Bereich des Quantencomputings, wie es heute existiert, lösen kann.

Yuval: Santanu, wo kann man mit Ihnen in Kontakt treten, um mehr über Ihre Arbeit zu erfahren?

Santanu: Ich danke Ihnen vielmals. Ich bin auf LinkedIn. Wenn man meinen Namen und danach Cisco eingibt, sollte ich auftauchen. Oder Quantum danach, sollte ich auftauchen. Sie können sich gerne über LinkedIn an mich wenden. Normalerweise antworte ich recht proaktiv. Ich bin sehr froh und glücklich, jedem zu antworten, der irgendwelche Fragen hat. Ich danke Ihnen.

Yuval: Das ist ausgezeichnet. Es hat mir sehr viel Spaß gemacht, mit Ihnen zu sprechen. Vielen Dank, dass Sie heute bei mir waren.

Santanu: Ich danke Ihnen vielmals. Gleichfalls. Es war ein tolles Gespräch mit Ihnen. Es war mir eine Freude und eine Ehre. Danke, dass ich dabei sein durfte.


Mein heutiger Gast ist Santanu Ganguly, ein Systemarchitekt von Cisco. Santanu hat ein neues Buch über Quantum Machine Learning veröffentlicht. Wir sprechen über dieses Buch, fliegende Qubits, die Herausforderungen bei der Einführung von Quantum Machine Learning in die Produktion und vieles mehr.

Hören Sie sich weitere Episoden an, indem Sie "Podcasts" auf unserer Seite Einblicke auswählen.

Die vollständige Abschrift finden Sie unten

Yuval: Hallo, Santanu. Und danke, dass Sie heute bei mir sind.

Santanu: Vielen Dank, Yuval. Danke, dass ich dabei sein durfte. Und vor allem vielen Dank, dass Sie meinen Namen richtig ausgesprochen haben. Ich bin wirklich dankbar.

Yuval: Mit Vergnügen. Also, wer sind Sie und was machen Sie?

Santanu: Mein Name ist Santanu Ganguly. Ich arbeite derzeit für Cisco Systems in Großbritannien. Eine meiner Aufgaben bei Cisco Systems ist heute die Mitarbeit im Lenkungsausschuss für Quantentechnologie, einem der internen Projekte. Und ich habe einen Hintergrund in Physik und Mathe. Ich habe mich schon immer für alles begeistert, was mit Wissenschaft zu tun hat, insbesondere für Quantencomputer. Ich arbeite also eng mit Projekten der britischen Regierung und einigen Finanzinstituten im Vereinigten Königreich zusammen. Das bin ich.

Yuval: Zunächst einmal herzlichen Glückwunsch zu Ihrem neuen Buch über maschinelles Quantenlernen. Könnten Sie mir bitte ein wenig darüber erzählen?

Santanu: Ich danke Ihnen vielmals. Ja. Es war eine großartige Gelegenheit, die sich mir bot, daran zu arbeiten. Ursprünglich dachte ich, es wäre einfach zu machen. Es war nicht annähernd so einfach, wie ich es mir vorgestellt hatte. Das Thema ist maschinelles Quantenlernen. Der Grund, warum ich dieses Thema gewählt habe, ist, dass ich mich sehr für maschinelles Lernen im klassischen Sinne interessiere, für das, was es leistet. Und ich bin noch begeisterter von der Quanteninformatik. Und ich habe mich schon immer für Quantencomputer interessiert. Ich habe einen Hintergrund in Mathe und Physik. Und in den letzten fünf, sechs, sieben Jahren, als das Quantencomputing für die Industrie immer relevanter wurde und Organisationen wie Google, IBM usw. begannen, Geld in diese Technologie zu pumpen, und sie relevante Entwicklungen hervorbrachte, wurde ich wirklich immer begeisterter.

In dem Buch geht es also um die Grundlagen des maschinellen Lernens mit Quanten, um die beteiligten Algorithmen und vor allem darum, eine Lücke zu schließen, die meiner Meinung nach in der Literatur zum maschinellen Lernen mit Quanten existiert, sozusagen.

So gibt es zum Beispiel monumentale Bände von Peter Wittek. Ich glaube, er hat 2011 das erste Buch über maschinelles Quantenlernen überhaupt geschrieben. Darauf folgte das monumentale Buch von Maria Schuld und Petruccione über "Supervised Learning in Quantum Machine Learning". Und auch das war ein großartiges Buch. Darauf folgte eine Explosion verschiedener Algorithmen, verschiedener Forschungsarbeiten in der Literatur und in den Forschungsmedien.

Eines der Dinge, die ich immer vermisst habe und mit denen ich anfangs selbst zu kämpfen hatte, als ich anfing, mich mit diesem Gebiet zu beschäftigen, ist die Frage, wie sich all diese Algorithmen, all diese Theorien, die sehr neu, sehr im Kommen und sehr aktuell sind, in Code umsetzen lassen. Als ich anfing, mich damit zu befassen, stellte sich heraus, dass nicht jeder Algorithmus auf jeder Quantencomputerplattform effizient funktioniert.

Zum jetzigen Zeitpunkt gibt es mehrere Varianten von Quantencomputerplattformen. D-Wave hat den ersten kommerziell erhältlichen Quantencomputer auf den Markt gebracht und verwendet das Annealing-Verfahren. IBM hat ein supraleitendes Qubit auf den Markt gebracht, das ein Gattermodell verwendet. Rigetti brachte ähnliche supraleitende Gattermodelle auf den Markt. Xanadu und PsiQuantum arbeiten an photonischen Quantencomputern.

Je länger ich mich mit diesen Algorithmen beschäftigte, desto mehr wurde mir klar, dass nicht jeder Algorithmus auf jeder Plattform effizient arbeitet. Zum Beispiel gibt es heute Studien, die behaupten, dass bestimmte NP-schwere Probleme, wie Maxcut, auf D-Wave-Computern mit QUBO effizienter funktionieren als auf Gate-Model-Computern mit Quantum Approximate Optimization Algorithms (QAOA). All diese Variationen und Herausforderungen, wenn es um die Anwendung von Algorithmen auf Plattformen geht, haben mein Interesse am Schreiben des Buches geweckt.

Daher deckt das Buch die meisten wichtigen Quantencomputer-Bibliotheken ab, die heute existieren. Es enthält Google Cirq, es behandelt Rigetti PyQuil und QVM. Es behandelt IBMs Qiskit. Es behandelt auch die Plattformen von D-Wave. Und um wirklich effizient beurteilen zu können, ob ich die Dinge richtig mache oder nicht, habe ich mit D-Wave zusammengearbeitet. Sie haben sich das Material angesehen, das ich in dem Buch über sie geschrieben habe. Und sie haben mir ihr Einverständnis gegeben, vor der Veröffentlichung weiterzumachen. Und dafür bin ich ihnen sehr dankbar. Das hat mein Interesse geweckt: Ich wollte etwas machen, das den Lesern eine Option bietet, einen Einstieg in alle wichtigen Plattformen und hoffentlich eine Vorstellung davon, welcher Algorithmus auf welcher Art von Plattform am besten funktioniert und wie man sie umgehen kann. Das war also der eigentliche Auslöser. Ich danke Ihnen.

Yuval: Sie haben erwähnt, dass manche Algorithmen auf manchen Maschinen besser funktionieren. Aber es gibt noch eine größere Frage. Ist maschinelles Quantenlernen heute schon nützlich? Oder wann erwarten Sie, dass es in einer Produktionsumgebung nützlich sein wird?

Santanu: Das ist eine sehr gute Frage. Meine Antwort darauf wäre, dass das maschinelle Lernen mit Quanten in bestimmten Fällen heute definitiv nützlich ist. Einer davon ist die Entdeckung von Medikamenten und die Modellierung von Molekülen. Das ist etwas, woran geforscht wird. Es ist ein aktuelles Thema. Aber das ist etwas, das auch schon funktioniert hat. Ich werde Ihnen ein Beispiel dafür geben. Die Penn State University hat unter der Leitung von Dr. Ghosh damit begonnen, Quantencomputer und maschinelles Lernen einzusetzen, um die Modellierung von Impfstoffen gegen das COVID-Virus zu untersuchen. Das ist also ein Beispiel dafür.

Ein weiteres Beispiel für die Erforschung und Anwendung des maschinellen Lernens mit Quanten ist der Finanzsektor. So zum Beispiel bei der Finanzrisikoanalyse, bei der Optimierung der Preisgestaltung für Finanzportfolios. So gibt es mehrere veröffentlichte Arbeiten von Goldman Sachs und Chicago Quantum, die sich mit einer Quantenversion des Finanzwesens befassen.

Der Grund, warum die Quantenperspektive untersucht wird, ist die Fülle an Wahlmöglichkeiten, die man hat. In einer Umgebung für Quantencomputing und maschinelles Lernen hat man alle möglichen probabilistischen Möglichkeiten, die man normalerweise in einer binären Umgebung nur schwer findet. Es wird also genutzt, und mit zunehmender Nutzung werden wir hoffentlich mehr und mehr darüber lernen, wie man verschiedene Anwendungen mit verschiedenen Algorithmen auf verschiedenen Plattformen optimieren kann. Und wir werden uns so verbessern, wie wir es bei unseren eigenen klassischen Standardcomputern getan haben. Als ich ein Kind war, war ein klassischer Computer ein großes Ding, das auf meinem Schreibtisch stand. Jetzt habe ich ihn buchstäblich in der Tasche. Je mehr wir also benutzen, desto mehr sollten wir lernen.

Yuval: Wenn Sie davon sprechen, dass sie auf verschiedenen Computern laufen, dann meinen Sie wohl unterschiedliche Architekturen. PsiQuantum gegen Honeywell, und nicht so sehr Rigetti gegen IBM, beides gate-basierte Computer, ist das richtig?

Santanu: Das ist richtig. Ganz genau. Es gibt verschiedene Architekturen. Und dann gibt es noch andere Aspekte sowohl des maschinellen Lernens als auch der Kommunikation. Nehmen wir an, wir haben zwei verschiedene Computer, Quantencomputer. Diese Quantencomputer könnten zwei IBMs sein, ein IBM und ein Rigetti, ein D-Wave und ein Rigetti, was auch immer. Wie können diese beiden Computer miteinander kommunizieren? Das wurde bisher noch nicht erforscht. Und auch hier handelt es sich um ein großes Forschungsgebiet, an dem ich und viele andere Forschungseinrichtungen beteiligt sind, denn es stellt sich die Frage, wie man Informationen von einer Qubit-Ebene auf eine Ebene bringt, auf der man mit einer anderen Quantenplattform kommunizieren kann. Vor allem, wenn es sich um eine optische Ebene handelt.

Das ist im Moment alles, was wir wissen. Wir denken, dass die Optik das Kommunikationsmedium sein sollte, aber Sie haben eine supraleitende Quantenplattform bei minus 273 Grad Celsius, also fast null Grad Kelvin. Und von dort aus muss man die Informationen auf eine optische Ebene bringen und dann miteinander kommunizieren. Es gibt also Forschungseinrichtungen, z. B. eine an der Universität Berkeley, die sich seit langem damit beschäftigt. Man nennt es fliegende Qubits. Im Grunde genommen fliegt man die Qubits von einem Energieniveau zum anderen und beginnt damit, sie über die Kommunikationsbarriere zu transportieren. Ja, die architektonischen Unterschiede spielen also eine große Rolle, ebenso wie die Grundlagenforschung und die Anwendung, die wir in Betracht ziehen.

Yuval: Wenn ich nun in einem kommerziellen Unternehmen arbeite, chemische Forschung oder Portfolio-Optimierung betreiben und maschinelles Lernen ausprobieren möchte, muss ich dann von vornherein entscheiden, auf welcher Hardware-Architektur ich es laufen lassen will? Woher weiß ich, ob dies am besten auf D-Wave oder IBM oder etwas anderem läuft?

Santanu: Im Moment gibt es zwei Möglichkeiten. Weg Nummer eins ist eine Art Näherung. Man rät also: Okay, ich lasse einen Maxcut-Algorithmus laufen, wird das auf einem D-Wave oder einem IBM besser funktionieren? Und dann probiert man es aus. Das ist also die eine Möglichkeit. Der andere Weg ist blindes Ausprobieren. Wie man diese Unterschiede zwischen den verschiedenen Plattformen und die Anwendbarkeit oder besser gesagt die Effizienz verschiedener Algorithmen auf verschiedenen Plattformen auflösen kann, könnte man herausfinden, und ich glaube, dass verschiedene Start-ups daran arbeiten.

Und wenn nicht, gibt es andere Quantencomputerfirmen, die darüber nachdenken, Stacks auf der physikalischen Quantencomputer- und Kommunikationsebene aufzubauen, wo wir eine Art Orchestrierungsebene haben, die die physikalische Ebene darunter sozusagen unsichtbar macht. Mit anderen Worten, dem Nutzer wäre es egal, ob die Plattform, auf der er programmiert, eine IBM oder eine D-Wave oder was auch immer ist, solange er weiß, was er will, welchen Algorithmus er will, entschuldige bitte, er programmiert es. Und der zugrunde liegende Software-Stack wählt dann die beste Plattform für ihn aus und ermöglicht ihm, darauf zu programmieren.

Daran wird in der Forschung gearbeitet, und möglicherweise gibt es ein oder zwei Start-ups, die sogar die erste Generation von Lösungen für diese Probleme haben. Dies könnte also eine weitere Möglichkeit sein, diese Ungleichheit in der Architektur, einer darunter liegenden Schicht, zu beheben.

Yuval: Wenn wir uns anschauen, wo wir heute beim maschinellen Lernen stehen, und dann vorspulen und sagen: Okay, was braucht es? Was muss passieren, damit es ein wirklich nützliches Werkzeug ist, das über ein oder zwei spezifische Anwendungsfälle hinausgeht? Eine Sache, die Sie erwähnt haben, ist die Abstraktionsebene oder die Fähigkeit, wie bei Classiq, von einem funktionalen High-Level-Modell zu einem Quantenschaltkreis zu wechseln, so dass man nicht im Voraus entscheiden muss, welche Hardware man verwendet. Der zweite Punkt ist natürlich eine Verbesserung der Rauscheigenschaften und der Anzahl der Qubits. So kann man größere Modelle und längere Algorithmen verwenden. Gibt es noch etwas anderes, ein drittes oder viertes Element, das Ihrer Meinung nach fehlt, damit sich das maschinelle Lernen mit Quantenmechanismen durchsetzen kann?

Santanu: Ich würde nicht sagen, dass es fehlt, es wird wahrscheinlich erforscht, nicht wahrscheinlich, es wird definitiv erforscht, und es wird daran gearbeitet. Und das ist im Grunde die Kohärenz. Sie erwähnten Fehler und auch Ungleichheiten und eine Abstraktionsschicht. Abgesehen davon wird also nicht alles durch Quantencomputing oder maschinelles Lernen optimiert oder sinnvoll optimiert werden können. Wenn Sie zum Beispiel PowerPoint im Netzwerk verwenden, macht es keinen Sinn, es auf einem Quantenkanal laufen zu lassen, weil PowerPoint in einem klassischen Netzwerk viel besser funktionieren würde. Es wird also in Zukunft - und aus futuristischer Sicht - spezifische Anwendungen geben, für die maschinelles Lernen nützlich sein wird.

Um auf Ihre Frage zurückzukommen: Um diese Probleme anzugehen, müssen wir die grundlegende Qubit-Verarbeitung verfeinern. Im Moment ist die Art und Weise, wie physische Qubits erzeugt werden, nicht perfekt. Der Prozess selbst muss also optimiert werden, und dann brauchen wir natürlich mehr Qubits. Derzeit verfügt ein echter Quantencomputer über etwa 50 bis 53 Qubits. Und die meisten Algorithmen, die derzeit getestet werden, werden an Simulatoren getestet. Und wenn man nicht genug Qubits braucht, laufen sie auf der eigentlichen Plattform. Wir brauchen also diese physikalische Schicht. Wir brauchen die Abstraktionsschicht.

Und die andere Option und Herausforderung ist natürlich die Skalierbarkeit. Das Problem muss also sinnvoll sein. Und bei einem sinnvollen Problem müssen wir es skalieren. Ich werde Ihnen ein Beispiel geben. Sie haben vielleicht im Internet gesehen, dass in Südostasien eine Studie zur Verkehrsoptimierung durchgeführt wurde. Die Stadt, die sie sich ausgesucht haben, hat ein enormes Verkehrsaufkommen. Dann wurde eine Studie zum maschinellen Lernen durchgeführt, die auf einigen Randbedingungen basierte, wie z. B. der Entfernung und dem Arbeitsort der Menschen, dem Weg zu einem vernünftigen Verkehrsaufkommen und so weiter und so fort. Und dann ein optimiertes Modell, das mathematisch optimiert ist. Wenn man sich das Diagramm anschaut, sieht man, dass der Algorithmus für maschinelles Lernen die Fahrer von einem Punkt zum anderen in der Stadt schickt, und nicht über einen der schnellsten möglichen Wege. Das geschieht zwar unter Zeitdruck, aber wie viele Leute kennen Sie, die, wenn sie in fünf Kilometern von A nach B fahren können, einen 20 Kilometer langen Umweg nehmen, um 10 Minuten zu sparen? Nicht viele.

Wir müssen also herausfinden, wie praktisch es ist, diese Dinge zu betreiben. Wird es tatsächlich eine praktische Lösung für das anstehende Problem sein? Und wie lassen sich diese Abfragen in einer Rushhour-Plattform skalieren? In einer Finanzumgebung zum Beispiel kann es zu Hunderttausenden von Abfragen kommen. Können all diese Abfragen durch maschinelles Lernen effizient bearbeitet werden? Oder würde es 50:50 sein? Einige klassisch, einige quantenbasiert? Das sind also Bereiche, in denen wir mehr Klarheit brauchen. Und was noch wichtiger ist: Sobald wir Klarheit haben, brauchen wir mehr Entscheidungsfindung in Echtzeit. Es sollte also eine Ebene geben, sei es eine KI-gesteuerte oder eine manuell gesteuerte, die sagt: Okay, dies ist am besten mit Quanten- oder mit klassischer Technologie zu machen - geht euren eigenen Weg, und hier ist etwas Magie. Das ist also meine Meinung dazu.

Yuval: Da wir uns dem Ende unseres heutigen Gesprächs nähern, haben wir viel über maschinelles Lernen mit Hilfe von Quanten gesprochen, aber natürlich gibt es auch andere Bereiche des Quantencomputers, die Verteilung von Quantenschlüsseln und andere. Gibt es etwas Bestimmtes, das Sie dazu bewogen hat, sich auf das maschinelle Lernen mit Quanten zu konzentrieren?

Santanu: Ja, grundsätzlich ist das Quantencomputing von großem Interesse. Mit dem Quantencomputing verbunden ist heute die große Frage der Sicherheit. Auch das ist von großem Interesse. Die andere Sache von großem Interesse ist die Quantenfehlerkorrektur. Es gibt Aspekte der Quantensicherheit und der Quantenfehlerkorrektur, die beide durch maschinelles Quantenlernen angegangen werden können: Verstärkungslernen oder überwachtes Lernen oder unüberwachtes Lernen, ein solcher Algorithmus. Und es gibt Forschungen und Studien, die dazu laufen. Mein Interesse gilt also genau diesen Bereichen, und hier wurde das maschinelle Lernen interessant, weil es tatsächlich einige ernsthafte unbeantwortete Fragen im Bereich des Quantencomputings, wie es heute existiert, lösen kann.

Yuval: Santanu, wo kann man mit Ihnen in Kontakt treten, um mehr über Ihre Arbeit zu erfahren?

Santanu: Ich danke Ihnen vielmals. Ich bin auf LinkedIn. Wenn man meinen Namen und danach Cisco eingibt, sollte ich auftauchen. Oder Quantum danach, sollte ich auftauchen. Sie können sich gerne über LinkedIn an mich wenden. Normalerweise antworte ich recht proaktiv. Ich bin sehr froh und glücklich, jedem zu antworten, der irgendwelche Fragen hat. Ich danke Ihnen.

Yuval: Das ist ausgezeichnet. Es hat mir sehr viel Spaß gemacht, mit Ihnen zu sprechen. Vielen Dank, dass Sie heute bei mir waren.

Santanu: Ich danke Ihnen vielmals. Gleichfalls. Es war ein tolles Gespräch mit Ihnen. Es war mir eine Freude und eine Ehre. Danke, dass ich dabei sein durfte.


Über "Der Podcast des Qubit-Typen"

Der Podcast wird von The Qubit Guy (Yuval Boger, unser Chief Marketing Officer) moderiert. In ihm diskutieren Vordenker der Quanteninformatik über geschäftliche und technische Fragen, die das Ökosystem der Quanteninformatik betreffen. Unsere Gäste geben interessante Einblicke in Quantencomputer-Software und -Algorithmen, Quantencomputer-Hardware, Schlüsselanwendungen für Quantencomputer, Marktstudien der Quantenindustrie und vieles mehr.

Wenn Sie einen Gast für den Podcast vorschlagen möchten, kontaktieren Sie uns bitte .

Erstellen Sie Quantensoftware ohne Grenzen 

Kontakt