Unser Havelland und EDEKA Dorfmann Zukunftsmarkt Video-Podcast (12): Im Gespräch mit dem KI-Professor Ralf Herbrich
„Unser Havelland“ lädt einmal im Monat eine Person aus dem Havelland ein, um ein halbstündiges Expertengespräch zu führen. So können wir ein Interview präsentieren, das den Rahmen sprengt und ein wenig mehr in die Tiefe geht. Das Interview wird auf vier Seiten im Magazin abgedruckt und auf die Homepage www.unserhavelland.de gestellt. Zugleich nehmen wir den Experten-Podcast auch auf Video auf, das Sie auf unserem YouTube-Kanal (www.youtube.com/UnserHavelland) sehen können.
Unser Interview findet in der „Überschaubar“ im EDEKA Zukunftsmarkt in Nauen (www.zukunftsmarkt-dorfmann.de) von Christian Dorfmann statt.
Unser erster Gast war Christian Lohse, der 2-Sterne-Koch, der in Falkensee lebt. Anschließend nahmen Robert Dahl als Inhaber von Karls Erlebnis-Dorf in Elstal, Birgit Faber als Geschäftsführender Vorstand vom „Turn und Sportverein Falkensee e.V.“ und Olaf Höhn als Geschäftsführer von Florida Eis aus Spandau vor unserem Mikrofon Platz. Thilo Spychalski, der Geschäftsführer der Havelland Kliniken Unternehmensgruppe, war anschließend unser Gast. Dann besuchte uns Ronald Rauhe aus Falkensee, Olympia-Sieger im Kajakfahren, mit seinen Olympia-Medaillen. Wir sprachen mit Dirk Eilert aus Dallgow-Döberitz – er beschäftigt sich mit der Mimikresonanz-Methode. Auch Roger Lewandowski war als amtierender Landrat vom Landkreis Havelland zu Gast im Experten-Podcast. Danach sprachen wir mit Dorothee Berger. Sie ist Vorstandsvorsitzende vom pro agro Verband. Im September war Michael Koch bei uns. Er ist im Landkreis mit dem Katastrophenschutz beauftragt. Auch der Nauener Nachtwächter Wolfgang Wiech besuchte uns. Im November sprachen wir mit KI-Papst Ralf Herbrich.
Herzlich willkommen bei unserem Experten-Podcast in der „Überschaubar“ im Zukunftsmarkt vom EDEKA Christian Dorfmann in Nauen. Dieses Mal begrüßen wir Ralf Herbrich aus Falkensee bei uns am Mikrofon. Er ist Professor am Hasso-Plattner-Institut in Potsdam und Experte für KI-Systeme.
Sie haben bereits als KI-Experte für große Firmen gearbeitet, als die Allgemeinheit noch nie etwas von Künstlicher Intelligenz gehört hat. Sie standen im Dienst für Microsoft, für Amazon, für Facebook und für Zalando. Können Sie uns ganz kurz erzählen, was Sie für die einzelnen Firmen getan haben?
Ralf Herbrich: „Bei Microsoft habe ich ein Ranking für ein Matchmaking-System für das Online-Gaming entwickelt. Wenn ich also heute ein virtuelles Autorennen fahre oder ein Online-Golf-Spiel starte, dann sorgt mein mathematischer Algorithmus im Hintergrund dafür, dass Spieler zusammenfinden, die über eine ähnliche Spielstärke verfügen. Das macht das Spiel ausgeglichener.
Bei Facebook habe ich mich mit Online-Werbung beschäftigt. Meine Aufgabe damals: Wie kann Facebook zielgenau individuelle Werbung an Milliarden unterschiedliche Facebook-User ausspielen?
Bei Amazon habe ich viele Dinge realisiert. Die Sache, die hier ein bisschen heraussticht, war die digitale Reifegraderkennung von Frischwaren. Im Supermarkt kümmert sich der Kunde selbst um eine Qualitätskontrolle. Er nimmt eine Tomate in die Hand und stellt selbst fest, ob sie noch frisch oder bereits halb verdorben ist. Wir haben daran gearbeitet, wie man diese Qualitätskontrolle mit KI und einem Kamerasystem genauso gut wie ein Mensch durchführen kann. Es ging darum, Lebensmittel auf einem Band zu scannen und diese sofort zu bewerten.
Bei Zalando habe ich an einem Produktfeature gearbeitet, das hoffentlich noch immer viele Kunden benutzen. Es geht darum, den eigenen Körper passgenau vermessen zu lassen, indem man sich in einer bestimmten Pose von einem Handy fotografieren lässt. Das KI-System kann aus dem Foto dann die richtigen Maße für Brustumfang oder Armlänge errechnen. Das hilft dabei, Kleidung exakt in der passenden Größe zu bestellen. So kann man die Anzahl der Rücksendungen reduzieren, weil die bestellte Kleidung am Ende doch nicht gepasst hat. Viele Kunden bestellen ja nur deswegen gleich drei verschiedene Größen, damit die richtige hoffentlich mit dabei ist. Man geht davon aus, dass etwa 60 Prozent der online bestellten Mode wieder zurückgeschickt wird.“
Diese aufregenden Aufgaben in der freien Wirtschaft bei großen Firmen haben Sie hinter sich gelassen. Sie sind inzwischen Professor für Künstliche Intelligenz am Hasso-Plattner-Institut in Potsdam. Was unterrichten Sie da, was lernen die Studenten? Oder spielen die den ganzen Tag nur mit ChatGPT?
Ralf Herbrich: „Witzigerweise benutzen die Studenten tatsächlich ChatGPT, aber das ist natürlich nicht das Hauptthema im Studium. Der Studiengang nennt sich ‚Informatik‘. Und im Master kommt dann mein Schwerpunkt ‚Datenwissenschaften und KI‘ dazu.
Wir stellen fest, dass wir in der Informatik noch immer mit Algorithmen arbeiten, die in den 80er und 90er Jahren entwickelt wurden, also im letzten Jahrhundert. Diese Algorithmen sind noch immer sehr akkurat, wie jeder feststellen kann, der ChatGPT oder ähnliche Systeme verwendet. Sie verbrauchen aber bei ihren Berechnungen unfassbar viel Energie. Wir beschäftigen uns also damit, wie wir diese Algorithmen so umbauen, dass sie weniger Strom verbrauchen. Wir setzen viel Mathematik ein, die auf die Programmierung von Algorithmen angewendet wird, um so eine bessere Energieeffizienz zu erzielen.
Wenn unsere Studenten einmal ihr Studium beendet haben, hoffe ich, dass sie ihre eigenen Firmen gründen. Tatsächlich lehre ich in einem meiner Kurse, wie man ein eigenes Team aufbaut, wie die eigenen Ideen in einem wachsenden Team umgesetzt werden und wie man dafür die richtigen Leute auf dem Arbeitsmarkt findet.
Aber natürlich finden unsere Studenten nach ihrem Abschluss auch eine Arbeit bei den großen Firmen wie Microsoft, Amazon oder SAP, um dort ihre algorithmischen Einsichten einzubringen. Die Nachfrage nach solchen IT-Experten ist weiterhin sehr, sehr hoch.“
Zurzeit gibt es auf der Welt einen enormen Bedarf für die digitale Rechenleistung. Deswegen wird in Lübbenau gerade ein neues Rechenzentrum gebaut – und drei weitere sind alleine fürs östliche Havelland geplant. Sie arbeiten am Institut auch an KI-Lösungen, um den Energieverbrauch in Rechenzentren zu senken?
Ralf Herbrich: „Das beschäftigt uns tatsächlich. Im Rechenzentrum ist der größte Hebel, um Energie zu sparen, die Kühlung. Von den 100 Prozent Energie, die im Rechenzentrum verbraucht werden, wendet man nur 60 Prozent für das eigentliche Rechnen auf. 40 Prozent gehen nur für das Kühlen drauf. Hier kann ich KI einsetzen, um abhängig von Faktoren wie etwa dem Wetter oder der aktuellen Rechenleistung die Kühlung gezielt anzupassen.
Natürlich kann man auch weniger Energie verbrauchen, sobald die Algorithmen besser werden, mit denen die KI rechnet. Aber es ist ein Trugschluss, dass mit dieser zu erwartenden Entwicklung auch die verbrauchte Energie sinkt.
Denn tatsächlich ist es heute noch so, dass die Künstliche Intelligenz sehr beschränkt eingesetzt wird. In vielen Arbeitsfeldern findet KI noch gar nicht statt, einfach, weil noch niemand dran gedacht hat oder weil der Einsatz viel zu teuer ist. Aber wenn wir den Energieeinsatz senken, werden plötzlich Einsatzgebiete relevant, in denen KI vorher noch viel zu teuer war. So kann es passieren, dass aufgrund der Energiereduzierungen der Gesamtenergieverbrauch am Ende sogar ansteigt. Das nennt man das Jevon‘s Paradox oder den Rebound-Effekt.
Wir werden also keine Abwärme für die Region verlieren, sondern eher noch deutlich mehr Anwendungen von KI in den verschiedenen Berufen oder im täglichen Leben erleben. Wir holen sozusagen auf dem gleichen Platz mehr Leistung heraus. Also mehr Intelligenz pro Watt Energie.“
Apropos Intelligenz, die größte Frage ist doch immer wieder diese: Ist die Künstliche Intelligenz denn wirklich intelligent?
Ralf Herbrich: „Wenn es um den Begriff Künstliche Intelligenz geht, dann bin ich der größte Kritiker dieser Bezeichnung.
Der Begriff Künstliche Intelligenz geht auf jemanden aus den 50er oder 60er Jahren zurück. Im Grunde genommen ist aber das, was ChatGPT und andere KI-Systeme machen, nichts anderes als langweilige Statistik.
Die große Intelligenz, die wir im Tun einer KI sehen, ist im Grunde genommen nichts anderes als eine seelenlose Spiegelung unserer eigenen Intelligenz, die wir in der Vergangenheit benutzt haben. Die Systeme werden ja mit hunderttausenden Texten und Bildern geschult, die sowohl aus wissenschaftlichen als auch aus nicht-wissenschaftlichen Quellen der Vergangenheit stammen. Die KI sucht in diesen Quellen nach Regelmäßigkeiten.
Ein Beispiel: Die KI wurde mit mehreren Milliarden Texten geschult. Anhand dieser Daten stellt die KI fest, dass bestimmte Wortfolgen in einer höheren Wahrscheinlichkeit vorkommen als andere. Weil es eben in unserem Sprachgebrauch ganz typische Wortfolgen sind. Die KI kann also bei einer bestimmten Frage herausfinden, wie wahrscheinlich bestimmte Wortfolgen in der Antwort sind.
Die KI ist also nicht schlau und auch nicht intelligent, sie erkennt nur Muster. Sie hat kein wirkliches Verständnis der Welt. Die KI versteht nicht, wie ein Mensch denkt oder wie die Welt funktioniert.
Aus genau diesem Grund konnte eine KI, wie wir sie gerade jetzt erleben, auch erst zum aktuellen Zeitpunkt entwickelt werden. Denn wir brauchten erst einmal 30 Jahre digitale Aufzeichnungen aus unserem alltäglichen Leben, um die KI damit schulen zu können. Erst jetzt sind ausreichend Muster in den Daten vorhanden, dass wir das Gefühl bekommen, das, was wir da vorgespielt bekommen, sei intelligent. Aber eigentlich geht es nur um eine statistische Aufzählung von in vergangenen Jahrzehnten erfassten Wort- und Bildfolgen.“
Ein Betätigungsfeld, bei dem sich die KI schon jetzt sehr positiv bemerkbar macht, ist die Diagnostik beim Arzt. Beim Hautkrebs-Screening oder bei der Darmkrebsvorsorge schaut die KI mit der Erfahrung von gefühlt 100.000 Ärzten mit auf das Live-Bild beim eigenen Arzt des Vertrauen – und verbessert so die Diagnostik.
Ralf Herbrich: „Das ist in der Medizin tatsächlich ein sehr starkes Werkzeug. Denn die Künstliche Intelligenz hat ja deutlich mehr Training erfahren als jeder Chirurg, jeder Dermatologe und jeder Zahnarzt. Sie kennt eben zigtausend Bilder, die aufzeigen, wie ein bösartiger Hautkrebs oder aber ein harmloser Leberfleck aussehen.
Die KI-Systeme sind auch konsistenter. Sie haben keine „schlechten Tage“ und sind immer voll bei der Sache. Sie kennen keine Ermüdung, urteilen absolut objektiv und leiden auch nicht unter fehlendem Wissen.
Schlussendlich sind diese KI-Diagnostiken aber nur ein unterstützendes Werkzeug. Sie können nicht mit dem Patienten interagieren, sie haben keine Empathie und sie können auch kein Skalpell in die Hand nehmen.
Aber: Diese KI-gesteuerte Diagnostik verbraucht eben unfassbar viel Energie. Und deswegen kostet sie auch Geld. Und erst, wenn die Diagnostik vielleicht nur noch ein Zehntel der Energie verbraucht, wird sie so kostengünstig sein, dass sie sich auch jeder Arzt leisten kann.“
Tatsächlich soll man bei ChatGPT oder anderen KI-Systemen nicht „Bitte“ oder „Danke“ sagen, weil die Verarbeitung dieser eigentlich überflüssigen Floskeln zu viel Energie verbraucht?
Ralf Herbrich: „Da gibt es sogar eine wissenschaftliche Abhandlung darüber, dass es tatsächlich eine messbare Menge Energie kostet, wenn man ständig ‚Danke‘ und ‚Bitte‘ zur KI sagt. Es wird also weltweit eine signifikante Menge an Energie verbraucht, wenn man zu höflich zur KI ist. Denn für die KI ist das immer eine neue Anfrage, die neu berechnet und beantwortet werden muss.“
Nun ist es so, dass die Künstliche Intelligenz so schnell Einzug in unser Leben gefunden hat, dass viele Menschen bereits ihre Arbeitsstelle oder ihre Auftraggeber verloren haben. Weil die KI schneller und besser Titelbilder für Romane oder Plattencover malt, weil sie Musik per Mausklick generiert oder weil sie sogar Sprecher in einer Fernsehdokumentation ersetzt. Welche Jobs sind denn noch in Gefahr?
Ralf Herbrich: „Es sind alle Jobs in Gefahr, bei denen die KI auf digitale Aufzeichnungen zurückgreifen kann, ein Muster erkennt und dann selbst vermeintlich kreativ tätig werden kann.
Wenn man in die Vergangenheit schaut und sich die technologischen Fortschritte anschaut, stellt man fest, dass sich zwar stets die Jobs verändern, die Arbeit als solche aber nicht verschwindet. Arbeit gibt es weiterhin, aber sie ist eben anders als früher.
Das sieht man sehr gut bei den Programmierern. Die KI ist inzwischen ganz wunderbar dazu in der Lage, Computercode zu schreiben. Man braucht also keine klassischen Programmierer mehr, dafür aber Leute, die dazu in der Lage sind, den von der KI entwickelten Code auf Fehler abzuklopfen oder mehrere verschiedene Module sinnvoll zusammenzuführen.
Was in der Zukunft noch passiert, bleibt abzuwarten. Kommt irgendwann das autonome Fahren, werden natürlich alle Taxi- und Truck-Fahrer überflüssig.“
Unsere aktuellen und öffentlich zur Verfügung gestellten KI-Systeme haben einen moralischen Filter. Sie verweigern bei bestimmten Fragen die Aussage, generieren keine Nacktbilder und treten in den Streik, wenn es um diskriminierende oder gar rassistische Inhalte geht. Wie kann man denn diese Systeme vor Missbrauch schützen?
Ralf Herbrich: „Die Leute stellen sich vor, dass die Verantwortlichen für eine KI einfach einen Regelkatalog erstellen, indem etwa steht: Erzeuge keine Nacktbilder.
So einfach geht das aber leider nicht. Der Algorithmus bekommt kein Regelwerk, das er auswendig lernt. Sondern er bekommt zahllose textuelle oder visuelle Beispiele, mit denen das System geschult wird. Und diese Basis versucht die KI dann nachzumodellieren.
Es wird aber viel Aufwand darauf investiert, um der KI aufzuzeigen, wie Antworten auf bestimmte Fragen aussehen sollten. Da kommt ein sogenanntes Reinforcement Learning zum Einsatz. Die Konzerne stellen nach der Schulung der KI mit bereits existierenden Daten Beispielfragen, um anschließend die Antworten zu bewerten. Sie stellen dabei fest, ob eine Antwort moralisch annehmbar war oder eben nicht. Man muss aber zigtausende dieser Beispiele generieren, um sicherzustellen, dass die KI zu 99 Prozent akkurat antwortet. Ganz ausschließen kann man es also nicht, dass die KI auch einmal unethisch reagiert.
Eine konkrete Regel für erwünschtes Verhalten, die in der KI kodiert ist, gibt es also nicht. Die Regeln sind immer beispielbasiert.“
Aber es gibt doch die Möglichkeit, dass ein Schurkenstaat irgendwo auf der Erde eine KI entwickelt, die dieses moralische Training nicht hatte. Und die bei einem angedachten Verbrechen etwa den perfekten Plan für die Umsetzung ausspuckt.
Ralf Herbrich: „Für die Entwicklung einer solchen Schurken-KI gibt es in der Tat eine gewisse Gefahr. Die Arithmetik und die Modelle für die Entwicklung einer KI sind ja hinlänglich bekannt.
Im echten Leben ist es aber noch immer so, dass die Anbieter einer KI unfassbar viele Daten sammeln und bereitstellen müssen, um die neue KI zu trainieren. Und das setzt natürlich auch enorme Kapazitäten an Rechenspeicher und Rechenleistung voraus. Wer kann damit schon dienen?
Aber ganz undenkbar ist es nicht, dass eine „falsche“ KI entwickelt wird. Wir können es als Gesellschaft nicht verhindern und müssen es vielleicht sogar unter Strafe stellen. Schlussendlich ist die KI aber nur ein Werkzeug wie ein Auto. Ich kann mit dem Auto mein Kind in die Schule fahren oder aber eine Bank ansteuern, um sie auszurauben. Der Mensch macht den Unterschied.“
Nun setzen wir alle die KI immer häufiger ein, weil wir Informationen nachschlagen wollen. Nun stelle ich immer wieder fest, dass in den Antworten auf meine Fragen Informationen stecken, die gar nicht stimmen. Was soll das denn?
Ralf Herbrich: „Das nennt man Halluzinieren. Die KI kann zwar auf digitale Texte und Bilder aus den letzten 30 Jahren zurückgreifen, die durch das Internet öffentlich geworden sind. Trotz der immensen Datenfülle decken diese Informationen aber noch immer nicht sämtliche Fragen des zwischenmenschlichen Lebens ab.
In Bereichen, für die sehr viele Daten vorliegen, werden die Antworten der KI in der Regel korrekt sein. Hat die KI in einem Wissensgebiet aber nur wenig Informationen zur Verfügung, führt der Algorithmus eine sogenannte Interpolation durch – und sucht nach der wahrscheinlichsten Antwort. Die kann aber auch falsch sein.
Hier setzt gerade ein großer Bereich in der KI-Forschung an. Wir haben ja bereits erfahren, dass es uns zum einen darum geht, KI-Berechnungen energieeffizienter zu gestalten. Ebenso wichtig ist es aber, das Halluzinieren in den Griff zu bekommen. Wir möchten es gern so weit in den Griff bekommen, dass der Algorithmus bereits in der Vorhersage weiß, dass er eine Antwort sucht, zu der es keine Trainingsdaten gibt. Der menschliche Anwender sollte an dieser Stelle erfahren, dass die KI unsicher bei der aktuellen Antwort ist. Dieses Problem ist aber noch nicht gelöst.“
Könnte man die Unsicherheiten nicht einfach abstellen und vorgeben, dass die KI nur gesicherte Fakten ausgibt?
Ralf Herbrich: „Das könnte man. Dann würde das System aber weiterhin so funktionieren wie vor zehn Jahren. Und ständig sagen: ‚Darauf habe ich keine Antwort‘. Das wäre eine frustrierende Erfahrung. Man lässt zurzeit das Interpolieren der bestehenden Daten und damit das Halluzinieren zu, weil es eine plausible Antwort erzeugt. Auch wenn sie nicht immer die richtige ist.“
Was bei Texten falsch läuft, funktioniert auch bei Bildern nicht. Menschen haben auf KI-generierten Fotos oder Cartoons auf einmal sechs statt fünf Finger. Und wenn ich eine Korrektur anrege, wird das Bild nicht verbessert, sondern es wird ein komplett neues generiert. Mit neuen Fehlern. Das ist frustrierend.
Ralf Herbrich: „Man tut schon sehr viel im Hintergrund. Die KI bekommt immer mehr Wissen über die Dinge der Welt. Sie lernt etwa, wie eine Palette aussieht und wie groß sie ist. Da gibt es sehr viel faktisches Wissen in den Datenbanken. Außerdem arbeitet man am Knowledge Graph und korrigiert falsche Antworten, um die Genauigkeit bei der KI-Datenausgabe zu verbessern. So möchte man unplausible Antworten, die in unserer physischen Welt unmöglich sind, ausschließen.
Die KI weiß, dass die Wahrscheinlichkeit, dass neben einem Finger noch ein weiterer sein muss, sehr hoch ist. Und sie weiß, dass es unwahrscheinlich ist, dass eine Hand mehr als zehn Finger hat, denn das hat sie auf ihren Schulungsbildern noch nie wahrgenommen. Aber vier, fünf oder sechs Finger sind für die KI ähnlich wahrscheinlich.
Hat die KI ein Bild generiert, so kann es nicht nur eine kleine Sequenz austauschen. Es wird immer eine komplette, neue Gesamtsequenz berechnet. Die KI hat auch kein Konzept für das gesamte zu erzeugende Bild. Es zerlegt ein Bild in lauter 16×16-Pixel-Bereiche und generiert den Nachbarbereich immer mit dem ‚Gedanken‘ im Hinterkopf: Wie wahrscheinlich ist es, dass sich hier nun diese oder jene Pixelfolge anschließt? Die KI weiß also gar nicht, dass da fünf Finger hingehören.
Tatsächlich steigt zurzeit die Wahrscheinlich, dass die KI in Zukunft sogar noch mehr Fehler macht als das jetzt der Fall ist. Denn seit zwei Jahren nutzen wir die KI, um neue Texte und Bilder zu generieren, die mitunter mit all ihren Fehlern wieder im Internet veröffentlicht werden. Das System trainiert sich jetzt also weiter mit seinen eigenen Falschvorhersagen. Das ist ein riesiges Problem.
Man kann das Problem besser einschätzen, wenn man weiß, dass jeden Tag über 100 Millionen Menschen ChatGPT benutzen und damit neue und durchaus auch fehlerhafte digitale Muster erzeugen.“
Eigentlich müsste die KI doch immer besser werden?
Ralf Herbrich: „Wie denn? Es kommen ja keine neuen relevanten Daten für die Schulung mehr dazu. 1992 wurde das Internet erfunden. Ich war dabei. Als es ans Netz ging, habe ich es einmal vollständig gecrawlt und 100 Seiten heruntergeladen.
Seitdem ist die Datenmenge natürlich beträchtlich gewachsen. 2022 haben wir 30 Jahre digitale Aufzeichnungen der menschlichen Geschichte gefeiert. Jetzt, im Jahre 2025, haben wir diesem Wissen als Menschheit aber nur kümmerliche drei neue Jahre an Daten hinzugefügt. Das ist nicht besonders viel. Das System wird durch Datenerfassung nicht schlauer. Wir müssen jetzt an die Algorithmen heran.“
Der Quantensprung im Bereich der Künstlichen Intelligenz wäre ja das selbstfahrende Auto. Sie meinten einmal in einem früheren Interview, das selbstfahrende Auto würde noch in weiter Zukunft liegen, weil es nicht genügend Daten gibt. Nun haben wir aber moderne Autos wie etwa den Tesla, der dazu in der Lage ist, die Daten der Fahrer zu erfassen und auszuwerten. Ist das autonome Fahren damit wahrscheinlicher geworden?
Ralf Herbrich: „Nicht nur Tesla hat viele Daten. Auch andere Unternehmen wie Mercedes oder VW setzen Autos mit digitalen Kameras ein. Tatsächlich werden also sehr große Datenmengen gesammelt.
Aber. Es gibt ja immer ein Aber. Tatsächlich gibt es bei einem selbstfahrenden Auto verschiedene Stufen der Autonomität. So gibt es eine Stufe, bei der das Auto selbst fährt, aber es gibt noch einen menschlichen Kontrolleur, der jederzeit eingreifen könnte. In einer weiteren Stufe muss der Mensch nicht mehr eingreifen, sollte aber im Notfall dazu in der Lage sein, das Auto wieder in die Spur zu lenken.
Von einer vollständigen Autonomität sind wir noch immer weit entfernt. Soll das Auto absolut autonom fahren, darf es die Straße nicht nur grob erkennen, dann ist jedes feine Detail wichtig.
Die beiden Firmen, die zurzeit bereits ein vollständig autonomes Fahren mit Taxis, die ich herbeirufen kann, anbieten, und in denen kein Mensch mehr sitzt und wo es auch keinen Remote Operator mehr gibt, die heißen Waymo und Zoox. Beide Firmen fahren im Moment ausschließlich in der Innenstadt von San Francisco. Ich habe mich einmal mit der Forschungsabteilung von denen unterhalten. Ihr Problem ist, dass diese autonomen Taxis zwingend ein hochauflösendes 3D-Modell jeder Straße haben müssen, in dem auch wirklich jeder einzelne Bordstein vermerkt ist. Es hat ein, zwei Jahre gedauert, um diese Daten nur für die Innenstadt von San Francisco zu erheben. Diese 3D-Daten sind viel feiner aufgelöst als das bekannte Google Streetview. Man kann leider nicht einmal eben auf der Autobahn nach Mountain View runterfahren, weil diese Strecke eben nicht digitalisiert ist.
Das autonome Fahren ist auch deswegen so eine schwierige Kiste, weil ein paar Zentimeter bereits den Unterschied ausmachen, ob ich irgendwo gegenfahre, am Bordstein abhebe oder jemanden tot fahre. Um ein autonomes Fahren zu erlauben, bräuchte ich ein extrem hochdetailliertes 3D-Modell aller Straßen, der Gehwege und der Umgebung. Für eine Stadt, für ein Land, für die Welt.
Machbar wäre es. Theoretisch. Ich bin der Meinung, dass ich es in meiner Lebensspanne noch erleben werde, dass wir auf unseren Straßen autonom fahrende Autos sehen. Aber das wird keine leichte Aufgabe sein, dieses fein auflösende 3D-Abbild unserer Welt zu generieren. Zumal unsere Städte ja auch dynamisch sind: Ständig ändert sich etwas.
Man muss auch realistisch sein. Das erste Mal, dass ein Auto autonom und ohne Fahrer 300 Kilometer geradeaus durch die Wüste gefahren ist, das war 2005. Heute, 20 Jahre und viele Milliarden Dollar weiter, könnten wir uns gerade einmal autonom durch die Innenstadt von San Francisco befördern lassen. Weit sind wir also nicht gekommen.“
Unsere Kinder setzen KI ein, um ihre Hausaufgaben zu machen. Wie gehen wir damit um?
Ralf Herbrich: „Was wir unseren Kindern in der Schule beibringen, und wie wir das machen, das wird sich meiner Meinung nach fundamental verändern. Wir können KI nicht verbieten. Wir müssen uns überlegen, wie wir KI in den Unterricht integrieren. KI wird in der darauffolgenden Ausbildung und auch in der späteren Arbeit ganz selbstständig genutzt werden. Das bedeutet: KI-Systeme in der schulischen Ausbildung nicht zu verwenden, wäre ganz einfach Realitätsverweigerung.“
Wo liegt denn die große verborgene Gefahr bei der Benutzung einer KI?
Ralf Herbrich: „Die Gefahr ist, dass die Menschen die KI personifizieren und eine persönliche Beziehung zu ihr aufbauen wie zu einem anderen Menschen. Man könnte psychisch abhängig werden von den Ratschlägen, die die Maschine gibt, oder von der Aufmerksamkeit, die sie schenkt. Wie beim Alkohol oder bei Zigaretten müssen wir deswegen von Kindesbeinen auch auf die Gefahren hinweisen, die durch die Benutzung der KI entstehen können.“ (Fragen / Fotos: CS)
Kennen Sie schon unsere Gratis-App?
Apple – https://unserhavelland.de/appapple
Android – https://unserhavelland.de/appandroid
Anzeige






