News

Hat KI etwas mit Intelligenz zu tun?

21.08.2019

Warum es so wichtig ist zu verstehen, wie KI-Technologien zu ihren Ergebnissen kommen: Der Informatiker Thomas Seidl und der Statistiker Bernd Bischl über maschinelles Lernen und andere Formen künstlicher Intelligenz.

Beim Online-Banking oder beim Einkaufen im Internet: Immer öfter begegnen uns im Alltag Chatbots. Würden Sie in jedem Fall erkennen, ob Sie es mit einem Bot, einer Software also, zu tun haben oder einem Menschen?
Thomas Seidl: Man muss ihm die richtigen Fragen stellen. Je mehr die ins Allgemeinwissen gehen, umso leichter kann man den Bot enttarnen. Je spezieller und technischer sie sind, desto schneller wird der Bot die Antwort haben. Ich weiß nicht, ob wir in zehn Jahren noch den Unterschied erkennen können.

Mit welcher Frage könnte man einen Bot austricksen?
Seidl: Bots können zum Beispiel nicht gut mit Ironie umgehen. Auch Wortspiele, emotionale und eher unlogische Fragen verwirren sie.

Bernd Bischl: Man kann auch den Kontext wechseln oder Bezug nehmen auf Punkte, die vorher schon im Dialog vorkamen. Aber Bots sind immer besser getarnt. Es gab da ein Experiment, in dem ein Bot sich als ukrainischer Jugendlicher ausgegeben hat, der noch nicht gut Englisch kann. Der war schwer zu enttarnen, weil das Fehlerhafte ja gleichsam zu seiner Rolle gehörte.

Google hat einen neuen Sprachassistenten namens Duplex, der für seinen Nutzer telefonisch zum Beispiel einen Tisch im Restaurant reservieren oder Friseurtermine ausmachen kann. Anfangs klang er so, als sei er ein Mensch. Sollten Bots offenbaren, dass sie keine Menschen sind?
Bischl: Auf jeden Fall, ich möchte schließlich wissen, mit wem ich rede. Der Gesetzgeber könnte ganz einfach erzwingen, dass das kenntlich ist.

Seidl: Jeder Mensch hat ein Bedürfnis zu verstehen, mit wem er es zu tun hat. Deswegen sind ja auch die ersten paar Minuten Smalltalk auf einer Party wichtig, um einen ersten Eindruck von seinem Gegenüber zu gewinnen. Ohne diese Einschätzung sind Gespräche sehr anstrengend. Man weiß dann nicht, über was man reden und wie offen man sein kann, was man nicht ansprechen sollte. Also ganz klar: Eine Basis für den Dialog wird nur dadurch gelegt, dass Bots offenlegen, dass sie keine Menschen sind. Solche Transparenz war schon immer wichtig. Aber früher waren die Unterschiede offensichtlicher, weil das Künstliche dem Menschlichen nicht so zum Verwechseln ähnlich war.

Künstliche Intelligenz wird derzeit oft als epochaler Technologiesprung verkauft. Fachkonferenzen sind mitunter innerhalb von Minuten ausgebucht. So einen Hype gibt es sonst nur bei Rockkonzerten.
Bischl: Das stimmt. Dabei existieren die Grundlagen von KI mit dem Gedanken der neuronalen Netze schon seit mehr als hundert Jahren. Und die technischen Grundlagen aus der Informatik gibt es bereits seit den 1970ern. Im Jahr 2006 dann kam der eigentliche Durchbruch für sogenannte Deep-Learning-Verfahren, das ist die heutige gängigste KI-Technologie. Sie wird breit eingesetzt für ganz unterschiedliche Aufgaben, die von der Gesichtserkennung bis zur Logistik und der Maschinenwartung reichen. Auch wenn noch nicht in allen Details verstanden ist, warum sie so gut funktioniert; noch gibt es da offenbar versteckte Probleme.

Seidl: Lange Zeit hatte sich nichts Wesentliches verändert – bis die rasant steigenden Rechnerleistungen und schnelle Grafikkarten, die wir vor allem der Spiele-Industrie zu verdanken haben, eine neue technische Grundlage geschaffen haben. Es gibt heute extrem billige Hardware, früher brauchte man Spezialrechner, um mit Deep-Learning-Ansätzen zu experimentieren.

Was genau aber führte zum Durchbruch im Jahr 2006?
Bischl: Von diesem Jahr an konnte man erstmals gut nachweisen, dass sich Deep-Learning-Architekturen tatsächlich effizient trainieren lassen. Dieser Durchbruch ist einigen wenigen Laboren zu verdanken, die seit den 1990er-Jahren am Ball geblieben sind und diese Verfahren weiterentwickelt haben, obwohl ein Großteil der Experten sie nicht für realisierbar hielt und sich abgewendet hat. Jetzt kommen im Jahr hunderte entsprechende Veröffentlichungen heraus.

Seidl: Dass Chatbots schon heute so verblüffend gut funktionieren, liegt an Deep-Learning-Verfahren. Wenn sie noch ein bisschen mehr Semantik kennen und irgendwann einmal Ironie lernen, verstehen sie uns irgendwann in sehr hohem Maße. Womöglich erkennen wir Chatbots künftig daran, dass sie uns eben nicht mehr missverstehen, was dagegen ja selbst zwischen Menschen, die sich nahestehen, durchaus vorkommt.

Was kann denn KI jetzt tatsächlich schon, außer sich zu unterhalten?
Bischl: Da müssten wir vielleicht erst einmal definieren, was Sie unter KI verstehen.

Spötter sagen, KI sei immer das, was man gerade noch nicht kann.
Bischl: Das finde ich gar nicht so falsch. Von vielen Dingen, die in der Vergangenheit als KI galten, sagt man heute: „Hat das eigentlich mit Intelligenz zu tun?“ Das finde ich ganz lustig. Was zum Beispiel inzwischen als stupides Suchen gilt, war mal sehr herausfordernd. KI könnte also, um mal eine vorläufige Definition zu geben, so etwas sein wie das algorithmische Lösen von Herausforderungen und Problemen, für die menschliche Intelligenz entweder erforderlich zu sein scheint oder bisher in der Vergangenheit sehr hilfreich war. Die meisten Wissenschaftler in diesem Feld würden KI aber keinesfalls als Imitation menschlicher Intelligenz verstehen.

Sondern?
Bischl: Wir am Münchner Zentrum für Maschinelles Lernen, dem MCML, stehen beispielweise für den Bereich Maschinelles Lernen, ein mathematisch gut definierbares Gebiet, in dem es im Wesentlichen um das Erkennen oder Prognostizieren von funktionalen Zusammenhängen in Daten geht. Algorithmen können lernen, dass auf einem Bild ein bestimmtes Objekt oder eine bestimmte Person zu sehen ist. Man kann damit auch prognostizieren, dass ein Medikament für eine bestimmte Person ein bisschen besser funktioniert als für eine andere. Man kann aus ihren genetischen Daten auch ihr Risiko dafür abschätzen, ob eine Prädisposition für eine Krebserkrankung vorliegt. Mit diesen Werkzeugen lässt sich sehr, sehr viel machen. Deswegen wird das von einem gewissen Komplexitätsgrad an dann gerne als künstlich intelligentes Verhalten interpretiert. Ich allerdings würde das nicht als Intelligenz bezeichnen.

Aber was ist es dann? Nur Mustererkennung?
Bischl: Die Frage ist, ab welcher Grenze wir etwas mit dem Label künstliche Intelligenz versehen wollen. Ich bin Mathematiker, mein Ziel ist es jedenfalls nicht, menschliche Intelligenz zu imitieren. Ich möchte Probleme lösen.

Seidl: Für mich hat Intelligenz schon sehr viel mit Imitation zu tun. Was selbstlernende Systeme tun und was kleine Kinder in der Familie nachahmend lernen – da sehe ich schon Parallelen. Bei vielen Lernverfahren sind die Daten in Baumstrukturen organisiert. Was an der Wurzel steht, wird später nur selten umgruppiert. Die Parallele dazu ist: Was ich als Kind gelernt habe, prägt nachhaltig fürs Leben. Oder nehmen Sie das Lernen durch Versuch und Irrtum; bei Maschinen nennen wir das Reinforcement Learning. Das ist im Grunde nichts anderes als etwa der Belohnungseffekt, den Kinder haben, wenn sie Aufmerksamkeit von ihren Eltern bekommen. Auch das steuert ihr Verhalten. Wir Menschen bilden uns wahnsinnig viel darauf ein, wie besonders wir sind. Aber dann ticken wir doch nach mehr oder minder simplen Mustern. Das zu reflektieren, finde ich einen spannenden Seiteneffekt der KI-Forschung, vielleicht hilft uns das, uns als Menschen besser zu verstehen.

Bischl: Das müssten aber andere Disziplinen leisten, die mit uns zusammenarbeiten.

Sie sagten, dass viele aktuelle KI-Anwendungen auf Deep Learning basieren. Wie funktioniert das?
Seidl: Deep Learning ist eine Variante des Maschinellen Lernens, eine spezielle Art, mathematische Funktionen zu beschreiben und zu lernen.

Bischl: Das System lernt funktionale Zusammenhänge mithilfe tiefer künstlicher neuronaler Netze, und die Verfahren sind in der Tat davon inspiriert, wie Lernen im Gehirn durch das Verschalten von Neuronen funktioniert. Im Wesentlichen steht hinter künstlichen Netzen ein mathematischer Optimierungsprozess, das Lernen moduliert die Verbindungen zwischen den künstlichen Neuronen des Netzes. Und bei einem tiefen neuronalen Netz kann, sehr stark vereinfacht gesagt, die erlernte Funktion extrem kompliziert sein. Besonders gut funktioniert es heute für die Analyse von Sprach- und Bilddaten.

Ist die Technologie dahinter eine grundlegend andere als früher?
Bischl: Ja, sicher. Schließlich sind erst heute die Rechenkraft und genügend große Datenmengen verfügbar, die es ermöglichen, die Systeme umfassend zu trainieren.

Seidl: In der frühen KI-Ära wollte man in der Sprachverarbeitung etwa alle Regeln von Grammatik und Semantik verstehen und modellieren, auch die Ausnahmen. Mit dem Deep Learning wird es möglich, alles aus Beispielen lernen zu lassen. Man füttert die Rechner einfach mit einer schieren Fülle von Schriftstücken, mit Jahrzehnten von Tageszeitungen, Parlamentsreden, Büchern, Doktorarbeiten, wissenschaftlichen Artikeln. Und das System beobachtet, was passiert, identifiziert selbst Regelmäßigkeiten und Ausnahmen. Man spart sich also die sogenannte Merkmalsextraktion, die macht das System automatisch.

Und das funktioniert gut?
Seidl: Ja, überraschend gut, vielleicht zu überraschend gut, weil es dazu verleiten kann, es sich einfach zu machen und Ergebnisse und deren Zustandekommen gar nicht mehr so genau zu prüfen. Für manche Anwendungen kann man sich da schon fragen, ob man Systeme auf die Menschheit loslassen sollte, die nicht wirklich gut evaluiert sind. Das ist aktuell ein großes Thema in der Forschung. Auch wir am MCML arbeiten an solchen Fragen. Das Stichwort ist „Explainable AI“. Ist das, was das selbstlernende System macht, noch nachvollziehbar?

Können Sie ein Beispiel skizzieren?
Seidl: Stellen Sie sich folgende Konstellation vor: Ein Arzt nutzt KI-Verfahren für die Krebsdiagnostik. Und der Computer liefert ihm die Aussage: Der untersuchte Patient hat einen besonders aggressiven Tumor. Was fängt der Arzt mit dieser Aussage an? Ist sie aus seiner Sicht plausibel? Ist sie mit seiner Untersuchung und seinem Erfahrungswissen kompatibel? Er will ja die Diagnose selbst verstehen und muss sie schließlich auch dem Patienten erklären können. Bei Deep Learning ist zwar die Mathematik von den Experten sehr gut verstanden. Aber der Inhalt steckt in riesigen Matrizen von Zahlen, die man nicht verstehen kann – schon gar nicht als Anwender. Die Semantik ist weg. Kann also der Arzt dem System blind vertrauen? Sich darauf verlassen zu müssen, dass es ja an einer genügend großen Zahl von Beispielsfällen trainiert wurde, ist ziemlich unbefriedigend.

Bischl: Das ist ein ganz wichtiger Punkt. Früher hat man versucht, Regelsysteme manuell zu bauen. Die Grundstruktur war letztlich oft durch Expertenwissen vorgegeben, man verwendete nachvollziehbare kausale Zusammenhänge. Dann wurde das Gesamtsystem komplexer, bestand aus immer mehr Einzelbausteinen, war aber im Prinzip noch sehr gut nachvollziehbar. Da war ein Vertrauen da, weil man ja Vertrauen in die Einzelbausteine hatte. Leider hat dieser Ansatz oft nur für Teilbereiche funktioniert, das Gesamtsystem war zu kompliziert. Heutzutage bewältigen unsere statistisch lernenden Systeme das Gesamtsystem, allerdings besteht es nicht mehr aus verständlichen Teilstrukturen. Um dieses Wissen aus den Deep-Learning-Systemen wieder herauszuziehen, müssen wir nun im Nachhinein viel Arbeit hineinstecken. Manche Experten zweifeln an, ob uns dieser Erkenntnisgewinn wirklich nach vorne bringt. Wichtig sei doch, dass die Aussagen stimmten.

Genügt das tatsächlich?
Bischl: Nein, es gibt eine ganze Menge Anwendungsgebiete, wo die Vorhersagen alleine nicht reichen. In der Medizin wie schon angesprochen etwa, bei Operationen. Immer dann, wenn es um risikobehaftete Entscheidungen geht. Denn da muss der Mensch die Kontrolle behalten. Wir wissen aus langjähriger Erfahrung, dass auch gute Computerprogramme immer fehlerbehaftet sind. Wenn man in Systeme nicht mehr hineinschauen kann, kann man sie auch nicht verbessern. Auch im Interesse der Ingenieure ist es also wichtig, Transparenz zu schaffen. Es ist extrem wichtig, dass sich die Algorithmen noch interpretieren lassen.

Welches Eigenleben Algorithmen haben, zeigt ein simples Beispiel, das Furore gemacht hat, weil der Mensch sich von KI-Systemen in Schach und Go besiegen lassen musste.
Seidl: Es heißt immer: „Maschinen sind ja nicht kreativ, das zeichnet uns als Menschen aus.“ Das Gegenbeispiel dazu ist das AlphaGo, das den Großmeister Lee Sedol im Go besiegte. Warum? Weil das Programm in seinen Millionen Trainingsspielen Taktiken und Strategien erfunden hat, die Menschen noch nicht kannten.

Und der Mensch reagierte fast beleidigt, weil eine Maschine kreativer war als er.
Seidl: Mich schreckt das nicht. Das ist ein Brettspiel, nicht das reale Leben. Das ist eine eingeschränkte Welt, die aus einer Hand voll Regeln besteht. Es handelt sich also um einen zwar sehr, sehr großen, aber endlichen Suchraum. Das kann man mit genügend Rechenleistung knacken, das nenne ich algorithmische Intelligenz.

Bischl: Dagegen steht die menschliche Intelligenz, die wir schlicht brauchen, um zu überleben, um etwa die Straße sicher zu überqueren.

Seidl: Die Frage ist doch: Ist der geniale Schachspieler intelligent oder der, der sein Leben gut meistert?

Was schreckt Sie dann?
Seidl: Mir fällt ein Alltagsbeispiel ein, das aber durchaus für eine fatale Entwicklung stehen kann. Letztens war bei mir die Zirkulationspumpe vom Warmwasser kaputt, so dass ein Installateur kommen musste. Als ich fragte, ob er den Fehler schon gefunden habe, sagte er, da stecke zu viel KI drin. Was sich früher mit ein paar einfachen Handgriffen reparieren ließ, ist jetzt hoch technisiert – ein klassischer Fall von Overengineering. Die Pumpe musste ich wegwerfen, eine wahnsinnige Ressourcenverschwendung. Eine nicht intelligente Pumpe wäre die bessere Wahl gewesen, die gibt es aber nicht mehr. Da verkehrt sich gerade etwas ins Gegenteil.

Bischl: Ja, es gibt einen Trend, der mir Sorge bereitet. Es gibt einfache und vermeidbare Fehler in Systemen, die sich stark, mitunter verheerend auswirken, weil es um hochkritische Anwendungen geht.

Was sind das für Fälle?
Seidl: Etwa der Absturz der beiden Boeing-Flugzeuge.

Bischl: Ja, das ist ein altbekanntes Problem aus der Informatik. Technische Systeme werden manchmal überkomplex, weil man einem Hype zu sehr vertraut. Und dann passieren Fehler, die Geld kosten und im schlimmsten Fall Menschenleben.

Seidl: In der Boeing, die vor kurzem in Äthiopien abgestürzt ist, war serienmäßig eine Automatik eingebaut, die auf einer Sensormessung basiert und das Flugzeug in den richtigen Flugwinkel bringen soll. Dieser Sensor war fehlerhaft, einen zweiten, wie sonst bei kritischen Bauteilen üblich, gibt es in diesem Flugzeugtyp nicht. Die Piloten haben versucht, den Fehler manuell zu korrigieren, die Automatik hat dagegen gearbeitet. Boeing war bei dieser Serie von seinem langjährigen Glaubenssatz abgewichen, dass der Pilot der Chef ist und nicht die Maschine. Die Software gab Entscheidungen vor, die der Pilot nicht kontrollieren konnte. Das geschah nicht auf der Basis eines neuronalen Netzes, es handelte sich um eine einfache Regelungstechnik. Man kann das trotzdem in Zusammenhang mit KI diskutieren, denn für diesen Sachverhalt finde ich es unerheblich, ob es sich um eine einfache oder eine komplizierte Funktion handelt.

Gibt es beim autonomen Fahren ein ähnliches Thema? Wie kann man da sicher gehen?
Seidl: In Bad Birnbach in Bayern gibt es schon einen Bus, der autonom zwischen Bahnhof und Kurzentrum hin und her zockelt. Und in der nächsten Ausbaustufe fährt er dann vielleicht noch einige Hotels an. Das finde ich genau richtig. Wir müssen ganz langsam Erfahrungen in einem geschützten Bereich sammeln. Das gilt auch für andere Anwendungen der KI. Wie und überhaupt welche Neuerungen man umsetzt, muss man von Fall zu Fall entscheiden.

Bischl: Das zu entscheiden, sind wir allerdings die Falschen. Die Gesellschaft sollte eine Art Wunschliste für mögliche Anwendungen zusammenstellen. Wir Experten können dabei helfen, können beraten und technische Konsequenzen besser verstehbar machen. Einblick und Transparenz sind Grundvoraussetzungen, um solche Fragen diskutieren zu können. Nur so kann eine Gesellschaft entscheiden, wo für sie der Nutzen beim Einsatz von KI überwiegt und wo nicht, und die Rahmenbedingungen entsprechend setzen, ohne gleich die Entwicklung zu bremsen.

Kontrolle und Transparenz – sie gelten vielen auch als Grundbedingung für die Forschungsstrukturen. Dabei findet KI-Forschung derzeit immer mehr in Firmen statt.
Seidl: In der Tat: Unternehmen in den USA kaufen zum Teil ganze Forschungsgruppen aus den Universitäten heraus. Wenn sie es nicht machen, so das Kalkül, macht die Konkurrenz das Geschäft. Das Dilemma ist: Wenn sie es zu schnell und flächendeckend tun, graben sie sich selbst das Wasser ab, weil es den gut ausgebildeten Nachwuchs dann bald nicht mehr gibt. Um das zu verhindern, ließen sich Partnerschaften zwischen Unternehmen und Universitäten bilden. Wissenschaftler aus den Firmen könnten sich in Lehre und Nachwuchsförderung an den Hochschulen engagieren.

Bischl: Wer wie ich gerne an der Universität frei forscht und dem die Lehre am Herzen liegt, für den hält sich der Reiz eines hochbezahlten Firmenjobs in Grenzen. Als Mitglied der Gesellschaft löst die gegenwärtige Entwicklung in mir große Bedenken aus. Forschung und Ausbildung sollten an der Universität stattfinden. Dafür gibt es gute Gründe. Zum einen geht es um Kontrolle: Als Wissenschaftler bin ich der Öffentlichkeit verpflichtet, ein Unternehmen ist das nicht. Ich möchte nicht, dass eine Firma den Daumen auf wichtigen Erkenntnissen hat. Was ist, wenn ein Unternehmen wie Google sie geheim hält? Derzeit gehen deren Forscher oft auf Konferenzen, die Ergebnisse sind öffentlich. Aber was ist, wenn sich das in zehn Jahren ändert? Eine Gesellschaft muss den Zugang zu Wissen kontrollieren können. (Interview: Hubert Filser und Martin Thurau)


Prof. Dr. Bernd Bischl ist Professor und Leiter der Arbeitsgruppe für Computational Statistics an der LMU. Bischl, Jahrgang 19XX, studierte Informatik, künstliche Intelligenz und Data Science an den Universität Hamburg, der University of Edinburgh und Technischen Universität Dortmund. Er wurde an der TU Dortmund promoviert. 2014 wechselte er an die LMU.

Prof. Dr. Thomas Seidl ist Inhaber des Lehrstuhls für Datenbanksysteme und Data Mining an der LMU. Seidl, Jahrgang 1966, studierte Informatik an der Technischen Universität München und wurde an der LMU promoviert, wo er sich auch habilitierte. Nach einer Vertretungsprofessur an der Universität Konstanz war er von 2002 an Inhaber des Lehrstuhls Informatik 9 (Data Management and Data Exploration), bevor er 2016 nach München zurückkam.

Thomas Seidl und Bernd Bischl leiten zusammen mit Prof. Dr. Daniel Cremers, Technische Universität München, das Munich Center for Machine Learning (MCML).

Wonach suchen Sie?