Interviews Umdenken

„Ethik-Richtlinien schießen wie Pilze aus dem Boden“

Dr. Thilo Hagendorff

Interview mit Dr. Thilo Hagendorff, Medien- und Technikethiker

Laut dem Zukunftsinstitut zählt Künstliche Intelligenz zu einem der Megatrends, die unser aller Leben maßgeblich verändern werden. Noch besteht die Chance, diese Entwicklung in eine ethisch vertretbare Richtung zu lenken. Doch wie genau kann das gelingen? Dr. Thilo Hagendorff, Medien- und Technikethiker an der Universität Tübingen und am Hasso-Plattner-Institut der Universität Potsdam, erklärt, wo uns intelligente Systeme von Nutzen sind und wo es zugleich gilt, ihr Gefahrenpotenzial einzudämmen.

Herr Hagendorff, das Thema Künstliche Intelligenz (KI) zählt schon seit geraumer Zeit zu einem Ihrer Forschungsschwerpunkte. Erstaunt es Sie, wie schnell die Entwicklung in den vergangenen zehn, 20 Jahren vorangeschritten ist?


Dr. Thilo Hagendorff: Nein, das erstaunt mich nicht. In meinen Augen ist das eine recht normale Entwicklung, die viel mit self-fulfilling Prophecies zu tun hat. Da, wo sehr viele Forschungsgelder hineingesteckt werden, kommt am Ende auch viel heraus. In den Massenmedien werden oftmals dystopische Szenarien diskutiert, die – wenn sie denn Hand und Fuß hätten – auf eine sehr rasante Entwicklung hindeuten. Schaut man sich jedoch die konkreten technischen Systeme an, sieht man, dass diese derzeit noch viele Limitationen aufweisen. Während KI-Systeme auf der einen Seite einige Dinge schon können, können sie vieles gleichzeitig eben noch nicht.

Das heißt, was kann KI heute überhaupt leisten?


Aktuell gibt es viele verschiedene Felder, in denen KI-Systeme besonders große Fortschritte machen. Zum einen etwa im Bereich Computer Vision, also bei der Bildverarbeitung. Und beim Natural Language Processing, der Sprachverarbeitung.

Trotzdem muss man aufpassen. Die Bezeichnung KI ist zu einem Überbegriff geworden, der fast schon synonym für die Digitalisierung steht. Oftmals sind damit Anwendungen im Bereich des maschinellen Lernens gemeint – also etwa das Deep Learning. Aber auch das sind wiederum nur einzelne aus vielen anderen Methoden, die mit KI in Verbindung stehen.

Und was ist dann KI?


KI ist inzwischen ein so schwammiger und vager Begriff geworden, dass man gar nicht genau sagen kann, wo uns die Systeme hinführen und welchen Einfluss sie auf die Gesellschaft haben. Dafür muss man meiner Meinung nach viel genauer in die einzelnen Anwendungen hineinschauen. Auf einen gemeinsamen Nenner gebracht, kann man aber Folgendes festhalten: Es geht sowohl um die nächste Stufe der Automatisierung als auch darum, mächtigere Vorhersagen machen zu können.

Sie sagten, große Fortschritte lassen sich vor allem bei der Bildverarbeitung und Spracherkennung feststellen. Wo sind diese KI-Systeme Ihrer Meinung nach besonders nützlich?


Beim Natural Language Processing sehen wir zum einen, dass Übersetzungssoftware immer mächtiger wird. Die KI-Systeme sind hier in der Lage, statistische Zusammenhänge in großen Textmengen zu erkennen. Außerdem gibt es Chats oder Chat-Bots sowie Sprachassistenten, die vielfältig eingesetzt werden können.

Die Computer Vision spielt vor allem bei medizinischen Diagnoseverfahren eine wichtige Rolle. Aber auch im Bereich der Gesichtserkennung. Hier werden die KI-Systeme bevorzugt zur Überwachung eingesetzt. Außerdem ist die Technologie für den Bereich der Robotik sehr wichtig – wie etwa beim autonomen Fahren. Daneben gibt es noch zahlreiche randständige Anwendungsfelder, die aber nichtsdestotrotz sehr mächtig sind, wie zum Beispiel die Satellitenbild-Analyse.

Gerade bei der Bilderkennung lassen sich KI-Systeme relativ leicht manipulieren. Forscher der US-amerikanischen Universitäten Princeton und Purdue haben schon 2018 gezeigt, wie einfach sich etwa die Erkennungssysteme in autonomen Fahrzeugen überlisten lassen. Wird die Farbe eines Tempolimit-Schildes leicht verändert, erachtet die Software dieses als Stopp-Schild. Diese Sicherheitslücken bestehen noch immer.


In der IT-Sicherheit spricht man gerne von Restrisiken. Diese bestehen immer, werden zugleich aber auch akzeptiert. Die Eintrittswahrscheinlichkeiten dieser Gefahren sind jedoch so gering, dass man sie schlichtweg in Kauf nimmt. Bei jedem technischen System, das in irgendeiner Weise verunfallen kann, besteht stets ein Restrisiko – und dieses lässt sich auch nicht abschalten.

Was nun KI-Systeme angeht, besteht dabei jedoch insofern eine erhöhte Gefahr, als dass Manipulationsangriffe teilweise sehr trivial sind. Es müssen keine allzu komplexen Mechanismen bedient werden, um eine Bilderkennungssoftware auszutricksen. Letztlich sehen wir hier einen ständigen Wettstreit zwischen Angreifern und Verteidigern. Aktuell ist nicht davon auszugehen, dass dieser Wettstreit irgendwann einmal komplett zu Gunsten von AI-Safety [Artificial Intelligence] aufgelöst wird.

Viele Menschen befürchten, an ihrem Arbeitsplatz durch eine Maschine ersetzt zu werden. Ist ihre Sorge berechtigt?


Auch hier muss zunächst differenziert werden, um was für eine Art von Arbeit es sich handelt. Arbeiten, die relativ monoton sind und wiederkehrende Aufgaben beinhalten, können gut ersetzt werden. Sobald es jedoch um komplexere Aufgaben geht, ist überhaupt nicht davon auszugehen, dass Mitarbeiter gegen einen Roboter ausgetauscht werden.

Generell bestehen zu der Frage jedoch widerstreitende wissenschaftliche Erkenntnisse. So gibt es etwa die große Studie von Frey & Osborne [2013], die über 700 Experten daraufhin befragt haben, welche Berufe überhaupt ersetzbar sind. Sie sind zu dem Ergebnis gekommen, dass dies etwa die Hälfte aller Jobs betrifft. Andere Studien hingegen zeigen das genaue Gegenteil: Es verändern sich zwar Tätigkeitsprofile, aber es werden insgesamt sogar mehr Jobs geschaffen.

Dann pendelt sich die Situation also aus?


Ja. Dass sich Tätigkeitsprofile verändern, ist ein Prozess, den es historisch gesehen so schon immer gab. Noch vor rund 100 Jahren hat ein Großteil der Bevölkerung in der Landwirtschaft gearbeitet. Heute liegt die Zahl im einstelligen Prozentbereich. Aber genau deshalb gibt es heute eben auch andere Berufe. Die Arbeitslosenquote hat sich nicht groß verändert.

Auf der einen Seite gibt es heute viele hochbezahlte Jobs, für die man sehr gut ausgebildet sein muss – etwa im ganzen IT-Bereich. Auf der anderen Seite haben aber auch viele Arbeiten gar nichts mit IT zu tun und dennoch werden sie verbleiben.

Die EU-Kommission hat im vergangenen Jahr Ethik-Richtlinien im Umgang mit KI veröffentlicht. Kritiker des Regelwerkes sagen, die EU-Kommission betreibe damit „ethic washing“ – zu Recht?

Ja – und nein. Grundsätzlich stellen wir seitens der EU schon viele wirklich ernstzunehmende Bemühungen fest, wie KI-Technologien sinnvoll reguliert – und ethical AI gefördert – werden können. So gibt es nicht nur die Ethics guidelines for trustworthy AI, sondern es sollen konkrete Gesetze geschaffen werden. Außerdem wird die Einführung bestimmter Label- sowie Zertifizierungsverfahren diskutiert. Europa sieht sich ein bisschen in der Mittelposition zwischen den USA und China. Während bei den USA das Hauptproblem in der grenzenlosen Kommerzialisierung besteht, ist es bei den Chinesen die grenzenlose Überwachung. Da stellt sich die Frage: Was machen eigentlich wir Europäer? Wir treten für eine wertebasierte, eine ethische KI ein.

Auf der anderen Seite nutzt die Industrie das Reden über Ethik oftmals für ein Whitewashing. Es ist zu beobachten, dass derzeit überall KI-Ethik-Richtlinien wie die Pilze aus dem Boden schießen. Meistens werden diese von Unternehmen aufgestellt. Das kann man insofern kritisch sehen, dass dabei zwar nach außen hin signalisiert wird, dass eine Art Self-Governance möglich sei. Nach dem Motto: Die Unternehmen halten sich selbst im Zaum und sorgen dafür, dass ihr Handeln sozial akzeptabel ist. In Wirklichkeit soll dadurch jedoch nur verhindert werden, dass wirklich bindende Gesetze eingeführt werden.

Eine ethische KI ist also das Alleinstellungsmerkmal Europas?

So pauschal kann man das nicht sagen. Auch amerikanische Unternehmen – und zunehmend auch chinesische – veröffentlichen inzwischen Ethik-Richtlinien. Sowohl Google als auch IBM haben beispielsweise jeweils eigene Regelungen. Ich will also nicht sagen, dass andere Länder keine Ethik-Richtlinien haben – ganz im Gegenteil.

Aber: Die EU ist dennoch in bestimmten Bereichen der IT Vorreiter, um nicht gar zu sagen Vorbild. Sofern sich die großen Tech-Unternehmen aus dem Ausland diesen Markt nicht entgehen lassen wollen – der ja immerhin über 500 Millionen Menschen umfasst – dann müssen sie sich den hier vorherrschenden Regelungen anpassen. Auf diese Weise kommt es zu einer Art Spillover-Effect: Sofern die Tech-Giganten ihre Produkte für den europäischen Markt optimieren müssen, dann ist es durchaus denkbar, dass sie diese in ähnlicher Form auch auf dem heimischen Markt herausbringen.

Sie haben in der Süddeutschen Zeitung bereits vor etwas längerer Zeit darauf hingewiesen, welche Bedrohung beispielsweise von Video- und Audio-Fakes im Internet ausgeht. Inwiefern bergen KI-Systeme eine Gefahr für demokratische Prozesse?

Zunächst mag man dazu verführt sein zu sagen, dass es diese Gefahr für demokratische Werte gibt. Dabei müsste man jedoch eine wirklich lange Kausalkette konstruieren, die in dieser Form bislang nicht empirisch klar nachgewiesen wurde. Das ist also spekulativ. Dennoch steht fest: KI-Systeme kommen in Form von Informationsfiltern, Social-Bots oder Text- und Bildgeneratoren für Deep Fakes in digitalen sozialen Netzwerken zum Einsatz. Auf diesen Plattformen stellen wir wiederum einen Strukturwandel der Öffentlichkeit fest. Dieser besteht vor allem in einer zunehmenden Polarisierung, Verrohung und Radikalisierung.

Der Strukturwandel wirkt sich zugleich auf demokratische Wahlen aus, sodass rechtspopulistische Parteien immer mehr an Zulauf gewinnen. Die Kausalkette mag nun auf den ersten Blick plausibel wirken. Dennoch: Über diese ganze Kette von ‚Wir entwickeln einen Machine-Learning-Algorithmus‘ bis hin zu ‚Die Demokratie erodiert‘ kann man letztlich nur spekulieren. Und das obwohl sicherlich vieles dafür spricht, dass dabei durchaus gewisse Zusammenhänge bestehen.

Mit Blick auf die Zukunft: Sehen Sie der Fortentwicklung von KI eher positiv oder negativ entgegen?

Es ist unglaublich schwierig vorherzusagen, wie sich KI-Systeme weiterentwickeln werden. Die KI-Forschung blickt auf eine sehr lange Tradition zurück. Wir sprechen hier von rund 70 Jahren. Dabei gab es immer wieder Phasen des Hypes, die sowohl mit sehr vielen Versprechungen verbunden waren, als auch mit Utopien und Dystopien. Zugleich gab es aber auch die sogenannten KI-Winter, in denen die Forschung relativ brachlag.

Im Wesentlichen lag das daran, dass die Versprechungen, die in den Hype-Phasen gemacht wurden, letztlich nicht gehalten werden konnten. Aus jetziger Perspektive ist unklar, ob wir nicht in ein paar Jahren auch wieder in einen KI-Winter kommen. Schlichtweg weil die heutigen Paradigmen – insbesondere das Deep Learning – aufgrund bestimmter technischer Limitationen wie vor eine Wand laufen.

Sollte man es nicht schaffen, diese zu überwinden, dann ist davon auszugehen, dass ein anderer Hype wieder stärker wird. Kaum jemand wird dann noch groß über KI sprechen. Ob es diese Rezession jedoch tatsächlich geben wird oder ob man auch in zehn Jahren noch sagt, KI ist the way to go for the future, das weiß ich nicht.