E-Paper
Supercomputerforscher Thomas Lippert

„Ich glaube nicht, dass es jemals absolute Sicherheit beim autonomen Fahren geben wird“

Festplattenstapel werden im Supercomputer Levante im Deutschen Klimarechenzentrum von blauen Lichtern illuminiert.

Festplattenstapel werden im Supercomputer Levante im Deutschen Klimarechenzentrum von blauen Lichtern illuminiert.

Herr Lippert, was versteht man eigentlich unter einem Supercomputer – im Gegensatz zu einem normalen Rechner?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Ein Supercomputer besteht aus vielen Prozessoren, den CPUs, oder aus vielen Graphic Processor Units, den GPUs – im Gegensatz zu einem „normalen“ Rechner, wie dem Laptop, das ich hier benutze und das nur aus einer CPU oder GPU oder einigen wenigen Prozessoren besteht. Die Zahl der CPUs oder GPUs kann beim Supercomputer in die Tausende gehen. Bei Teslas Dojo sind es mehrere Tausend. Entsprechend groß ist die Leistung dieser Systeme gegenüber „normalen“ Computern oder Servern.

Und was versteht man unter einem „neuronalen Netz“?

Ein neuronales Netz ist ein ganz allgemeines Konzept der künstlichen Intelligenz, das mittels einer Software realisiert wird, die im Prinzip auf jedem Rechner implementiert werden kann. Meines Wissens nutzt Tesla die Software Pytorch. Dojo etwa ist so konzipiert, dass ein sehr großes neuronales Netz trainiert werden kann, wobei ein sehr großer Datendurchsatz gewährleistet wird.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige
Der Supercomputerforscher Professor Thomas Lippert ist seit 2004 Professor für Computational Theoretical Physics an der Bergischen Universität Wuppertal, Direktor des Jülich Supercomputing Centre (JSC) des Forschungszentrums Jülich und Mitglied und Executive Director im Direktorium des John-von-Neunmann-Institute for Computing (NIC). Seit dem 1. August 2020 besetzt der Physiker und Informatiker die neu geschaffene Professur für „Modulares Supercomputing und Quanten-Computing“ am Institut für Informatik der Goethe-Universität Frankfurt.

Der Supercomputerforscher Professor Thomas Lippert ist seit 2004 Professor für Computational Theoretical Physics an der Bergischen Universität Wuppertal, Direktor des Jülich Supercomputing Centre (JSC) des Forschungszentrums Jülich und Mitglied und Executive Director im Direktorium des John-von-Neunmann-Institute for Computing (NIC). Seit dem 1. August 2020 besetzt der Physiker und Informatiker die neu geschaffene Professur für „Modulares Supercomputing und Quanten-Computing“ am Institut für Informatik der Goethe-Universität Frankfurt.

Wie funktioniert ein Supercomputer?

Durch parallele Ausführung von Programmen kann mit Supercomputern eine extrem hohe Leistung erreicht werden. Dies gilt gleichermaßen für Computersimulationen wie für das Training großer neuronaler Netze.

Wo werden sie eingesetzt?

Beispiele für den Einsatz von Supercomputern sind unter anderem die Wettervorhersage, Klimavorhersagen, beim Design neuer Materialien, bei kosmologischen Fragestellungen, Genomanalysen und in vielen anderen Bereichen aus der Biologie und der Chemie. Und, und, und.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Der von Tesla angekündigte Computer Dojo soll die Fahrzeugflotte des Autobauers für autonomes Fahren trainieren. Wie funktioniert das? Heißt das: KI trainiert KI?

Zunächst einmal: Tesla hat schon im August einen Rechner in Betrieb genommen, der mit etwa 10.000 komplexen Nvidia-H100-GPUs bestückt ist. Parallel dazu baut Tesla jetzt wohl seinen Dojo-Rechner mit dem eigenen D1-Chip auf, wohl auch, weil es derzeit einen extrem hohen Bedarf an Nvidia-GPUs gibt. Die Nutzung von KI für autonomes Fahren beruht auf zwei technischen Vorgängen. Zum einen wird das KI-System auf dem großen Rechner mit den zur Verfügung stehenden Daten trainiert, zum anderen wird das dann trainierte Netz im autointernen Rechner aufgespielt und für das autonome Fahren ausgeführt.

Hat der Supercomputer Dojo dann Zugriff auf alle selbstfahrenden Tesla-Wagen, um alle deren Fahrsituationen in sein Training einzubeziehen, und vermittelt er seine daraus gezogenen Erkenntnisse dann wieder an alle Tesla-Wagen – was zu einer Verbesserung des autonomen Fahrens führt?

Da ein solches Training eine sehr große Rechenaktion ist – Tesla spricht von 200 Petabytes an Daten, das sind 0,2 Trilliarden Bytes – dauert das Training auch auf dem Nvidia-System oder später auf dem Dojo eine längere Zeit. Die Daten kommen sicherlich zum großen Teil aus den Fahrzeugen und die trainierten Netze werden später wieder aufgespielt. Damit können Verbesserungen immer wieder einbezogen werden.

Ein autonom fahrendes Motorrad kann ich mir im Moment nicht so richtig vorstellen.

Thomas Lippert,

Supercomputerforscher

Soll damit verhindert werden, dass je wieder ein autonom fahrender Tesla in einen Unfall gerät?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Durch besseres Training des KI-Systems kann man bezüglich kritischer Situationen immer besser werden. Ich glaube aber nicht, dass es jemals eine absolute Sicherheit geben wird. Ich bin jedoch davon überzeugt, dass eine Situation kommen wird, wo die Zahl der Unfälle durch selbstfahrende, KI-gesteuerte Autos geringer sein wird als die Zahl der Unfälle, die durch menschliche Fahrerinnen und Fahrer verursacht werden. Das wird aber ein radikales Umdenken bedeuten, gerade in Deutschland. Ein autonom fahrendes Motorrad kann ich mir im Moment allerdings nicht so richtig vorstellen.

Sind Supercomputer Spezialisten? Werden sie immer für derart eingeengte Themen konzipiert wie jetzt Dojo als KI-Fahrlehrer?

Ganz und gar nicht. Maschinen wie Dojo oder das Tesla-Nvidia-System können im Prinzip universell für KI-Aufgaben eingesetzt werden. Das Nvidia-System ist mit Sicherheit auch sehr gut für Simulationen geeignet. Inwieweit Dojo mit seinem D1-Prozessor mithalten kann, kann man erst nach Kenntnis von sogenannten Benchmarks, also Ergebnissen aus Vergleichstestprogrammen, sagen.

Wo liegen allgemein die Vorteile von Supercomputern, und wo sind – wenn es sie gibt – die Grenzen?

Oft braucht man riesige Speicher, um alle Freiheitsgrade gleichzeitig unterzubringen, die man für gewisse Rechnungen braucht, oder man würde viele Tausend Jahre auf einem normalen Rechner benötigen, um ein Problem zu rechnen. Die Antworten – das sind zum Beispiel Lösungen von Gleichungen – sind durch Leistung und Größe der Rechensysteme beschränkt. Deswegen will man immer größere Rechner haben.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

2017 sagte die Stanford-Professorin Fei-Fei Li, dass Urteilsfähigkeit und Bewusstsein über den Kontext einer Situation bei KI schwach ausgeprägt seien. „Ein KI-Algorithmus macht den perfekten Schachzug, während der Raum in Flammen steht.“ Hat sich das verbessert? Kann eine KI eine komplexe Verkehrssituation so erkennen wie ein Mensch?

Eine solche Aussage macht wenig Sinn und ich denke, sie würde heute nicht mehr so formuliert. KI macht das, worauf KI trainiert ist. Je besser das gelingt, umso situationsbezogener die Inputdaten sind, umso besser können komplexe Aufgaben ausgeführt werden. Wenn man die KI auf ein Schachproblem trainiert, kann man sie nicht nach den Umgebungsbedingungen fragen. Dazu würde man schlicht zwei Systeme nehmen. Genauso wird es beim autonomen Fahren sein.

Ab 2024 werden wir den Rechner Jupiter bei uns in Jülich haben, der im Bereich KI dann wahrscheinlich die Weltspitze übernehmen wird.

Thomas Lippert,

Supercomputerforscher

Was sind die wichtigsten Konkurrenten des Dojo?

Hier lohnt es sich, auf die Top-500-Liste der schnellsten Systeme weltweit zu schauen. Stand heute sind für KI die Rechner mit Nvidia-GPUs am besten geeignet – zum Beispiel Selene von Nvidia selbst. In Europa war es seit 2020 Juwels am Forschungszentrum Jülich, der derzeit von Leonardo in Bologna überholt wird. Ab 2024 werden wir den Rechner Jupiter bei uns in Jülich haben, der im Bereich KI dann wahrscheinlich die Weltspitze übernehmen wird.

Noch ist der Dojo noch gar nicht einsatzbereit, aber Analysten wie Adam Jones von der US-Investmentbank Morgan Stanley propagieren Tesla durch Dojo ein traumhaftes Renditepotenzial. Kursziel der Tesla-Aktie sind 400 Dollar. Ist das gerechtfertigt? Oder ist das ein Hype?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Soweit ich das sehen kann, setzt Tesla ja derzeit auf das GPU-System mit den 10.000 Nvidia-Prozessoren. Dojo wird entweder parallel dazu betrieben oder kommt gerade in den Einsatz. Bezüglich der Effekte auf die Börse fragen Sie den Falschen, ich denke, dass hier das Hypen eine oft genutzte Methode ist, Kurse nach oben zu bringen, wir kennen das ja auch vom Quantencomputing. Aber da fragen Sie besser einen Analysten.

Das Stream-Team

Die besten Serien- und Filmtipps für Netflix & Co. – jeden Monat neu.

Mit meiner Anmeldung zum Newsletter stimme ich der Werbevereinbarung zu.

Entsteht für Tesla ein „asymmetrischer Vorteil“ durch den Dojo?

Das glaube ich erst einmal nicht. Wenn Dojo gut funktioniert, mag das etwas Druck aus dem Markt nehmen. Aber andere Autobauer können sich genauso gut wie Tesla eine Nvidia-basierte Maschine hinstellen. Das Problem derzeit ist, geeignete Expertinnen und Experten zu finden, die Systeme betreiben und Algorithmen bauen können.

KI ist nicht einfach zu verstehen. Für viele ist das Thema angstbesetzt. Ist das Ihrer Meinung nach nachzuvollziehen oder sind diese Leute das Opfer von dystopischen Science-Fiction-Geschichten?

Das kann ich gut nachvollziehen, weil Hochtechnologie von Kriminellen oder Kriegstreibern leider immer auch missbraucht werden kann. Daher ist es wichtig, dass man hier klug vonseiten der Politik agiert und der Sicherheit für uns alle Vorrang gibt. Dies erfordert eine tiefe und offene wissenschaftliche Durchdringung aller Aspekte. Allerdings glaube ich nicht, dass sich heutige Systeme so wie in dystopischen Science-Fiction-Geschichten verselbständigen können.

Mehr aus Wissen

 
 
 
 
 
Anzeige
Anzeige

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken