Herr Professor Schmidt, immer häufiger werden persönliche Daten gehackt – zuletzt waren 1.000 Politiker und Prominente betroffen. Sind wir mit unseren Daten nicht vorsichtig genug? Albrecht Schmidt: Ich habe meine Studierenden gefragt, wer ihrer Ansicht nach Schuld an dem Datenleak hatte. Sie sagten: die Nutzer. Aber wenn wir einmal zurückschauen: 2008 war Facebook nur ein Online-Adressbuch. Da haben viele nur ein einfaches Passwort gewählt. Keiner konnte damals wissen, dass zum Beispiel unsere Kommunikation einmal über den Facebook-Messenger laufen wird. Das Unternehmen hat seine Nutzer aber nie daran erinnert, das Passwort zu ändern. In meinen Augen liegt die Schuld daher nicht bei den Anwendern, sondern in der Verantwortlichkeit der Firma.
Was bedeutet das für den Datenschutz? Das Thema wird immer drängender. Medien werden künftig allgegenwärtig sein. In den letzten 200 Jahren war es sehr schwierig, Medien zu erstellen. Jetzt haben wir nicht zuletzt durch Smartphones ein exponentielles Wachstum bei der Medienerstellung. Künftig wird alles aufgezeichnet werden, was wir tun – beispielsweise durch Körperkameras. Alles Weltwissen wird dann plötzlich dokumentiert sein. Diese Veränderung ist vergleichbar mit der Einführung der Schrift vor 4.000 Jahren und völlig neuen Rechtssystemen. Dass Medien allgegenwärtig sind, finde ich ein sehr spannendes Thema, wirft aber eben natürlich große Fragen beim Datenschutz auf.
Eine entwicklungspsychologische Studie der LMU ergab kürzlich, dass Menschen einen Roboter mit menschlichen Zügen eher retten würden als Menschenleben. Was sagt das über unser Verhältnis zur KI? Die Frage der Robotik stellt sich heutzutage noch nicht. Sprachsysteme wie Siri oder Alexa funktionieren super, wenn man das sagt, worauf sie programmiert sind: den Timer stellen oder Musik abspielen. Wenn man aber versucht, ein Gespräch mit ihnen zu führen, merkt man: Es ist bisher häufig nicht mehr als eine Illusion von KI. Wir werden das Problem mit Robotern daher mittelfristig nicht haben. Und langfristig lernen, damit umzugehen. Wenn Ihnen auf Netflix bestimmte Serien empfohlen werden, denken Sie ja auch nicht an KI. Sobald sie funktioniert, nehmen wir sie nicht mehr als solche wahr.
Wir entwickeln uns also als Mensch mit dem Werkzeug weiter? Ja, aber das löst nicht immer alle Probleme. Soziale Netzwerke sind zum Beispiel noch relativ neu, da ist der Effekt noch nicht eingetreten. Früher lebten wir in kleinen Gruppen. Wenn damals ein paar hundert Menschen gesagt haben, dass etwas richtig ist, hat man es geglaubt. Heute kommunizieren wir in sozialen Netzwerken in einer Welt mit Milliarden Bewohnen. Wenn da ein paar Hundert etwas sagen, ist das total irrelevant. Da wir aber nicht gut im Unterscheiden sind, glauben wir denen häufig trotzdem – die berühmte Filterblase. Daher untersuchen wir auch die Wahrnehmung und Reflexion von Medien.
Wissenschaftler benötigen Daten für ihre Forschung – dürfen aber nicht gegen Datenschutzauflagen verstoßen. Ist die Blockchain-Technologie eine Lösung? Tatsächlich haben Unternehmen mehr Daten als Universitäten. Dadurch haben Firmen auch mehr Wissen als die Gesellschaft. Das muss sich dringend ändern. Ich glaube aber nicht, dass die Blockchain-Technologie dafür geeignet ist. Eines der Features der Technologie ist ja gerade, dass Daten nicht gelöscht werden können. Genau das verlangt aber die neue Datenschutzgrundverordnung. Blockchain ist eine clevere Technologie, die an manchen Stellen sinnvoll eingesetzt werden kann. Ich denke aber, sie wird keine solch grundlegenden Veränderungen schaffen, wie manche aktuell glauben.
Wie sieht es bei der Digitalisierung der Arbeitswelt aus? Es wird in Zukunft viele Bereiche geben, in denen einfache administrative und sich wiederholende Tätigkeiten automatisiert werden. Das müssen nicht unbedingt nur Billig-Jobs sein. Davon betroffen sind auch Fondsmanager, Aktienhändler, Bankdienstleistungen oder der Bausektor. Im Bereich Mobilität werden wir automatisierte Fahrsysteme bekommen, und im Bereich der Produktion hilft KI bei der Optimierung. Dennoch bin ich überzeugt, es handelt sich eher um eine industrielle Evolution als die häufig prophezeite Revolution.
Ein KI-System hat sich kürzlich in wenigen Stunden selber Schach beigebracht und dann eine Software mit dem gesamten Schachwissen der Menschheit besiegt. Übernehmen Maschinen wie in Science-Fiction-Filmen eines Tages die Macht, wenn sie sich durch die technologische Singularität rasant selbst verbessern? Ich gehe 2037 in Pension, bis dahin sicher nicht (lacht). Was danach geschehen wird, lässt sich aber tatsächlich nur schwer einschätzen. Auch weil erst auf philosophischer Ebene geklärt werden müsste, wann eine Maschine ein Bewusstsein besitzt. Bisher ist KI nichts weiter als fortgeschrittene Statistik, das heißt, alle Entscheidungen lassen sich auf bestehende Daten zurückführen. Ich bin skeptisch, ob sich das mit den aktuellen Methoden grundlegend ändert.
Wir müssen uns also keine Sorgen machen? Meine Antwort war keine Entwarnung. KI ist eine starke Technologie, die missbraucht werden kann. Was zum Beispiel schon jetzt eine Gefahr ist: dass Menschen Systeme bauen, die für die Menschheit gefährlich sind – zum Beispiel bewaffnete Drohnen mit Gesichtserkennung. Das ist zwar ein Horrorszenario, hat aber nichts mit KI oder einem maschinellen Machtstreben zu tun. Leider wird das oft verwechselt. Eine solche Drohne kann ein mittelmäßig begabter Masterstudent zusammenbauen. Wir müssen verantwortungsvoll mit KI umgehen. Hier sind wir beim Thema Erklärbarkeit: Wenn sich Systeme erklären müssen, wird es schwer, Dinge zu bauen, die anderen schaden. Bevor uns die KI ausrottet, wird das die Menschheit selbst tun.
Professor Albrecht Schmidt ist Inhaber des LMU-Lehrstuhls für Human-Centered Ubiquitous Media. Die Bezeichnung veranschaulicht, „dass der Mensch im Mittelpunkt steht“, sagt Schmidt. Am Lehrstuhl ist unter anderem ein Vorbereitungsprojekt für die europäische Forschungsinitiative „Humane AI“ angesiedelt, mit dem Ziel, intelligente Systeme so zu bauen, dass sie sinnvoll mit dem Menschen zusammenarbeiten. Zudem wird am Lehrstuhl daran gearbeitet, Systeme zu entwickeln, die in der Lage sind, Entscheidungen, die sie treffen, zu erklären. Weitere Forschungsthemen sind „Visualisierung und KI“ und die Anwendung der neuen Technologien im Gesundheitsbereich. So koordiniert Albrecht Schmidt derzeit unter anderem mit dem Institut für Augenheilkunde in Tübingen ein Projekt zur Früherkennung und Diagnose für altersbedingte Makuladegeneration, also Erblinden. In einem anderen Projekt verstärken die Forscher die menschliche Merkfähigkeit durch körpergetragene Kamerasysteme (ERC AMPLIFY „Amplification of mind and perception“).