Uncategorized

Irrtum 4: Künstliche Intelligenz wird uns bald überlegen sein

Die Geschichte der Künstlichen Intelligenz hat bereits in den 1950ern begonnen. Der britische Mathematiker Alan Turing entwickelte einen Test, mit dem gemessen werden sollte, ob ein Computer zu Intelligenz fähig ist. Nur ein Jahr später baute der amerikanische Mathematiker Marvin Minsky den ersten Neurocomputer SNARC. Solche Künstlichen Neuronalen Netze (KNN) sind ein Teilgebiet der Künstlichen Intelligenz. Sie sind vom Aufbau her am menschlichen Gehirn orientiert und sollen definierte Problemstellungen lösen. So definiert es das Fachportal BigData-Insider. Der von Minsky entwickelte SNARC beispielsweise simuliert das Verhalten von Laborratten in einem Labyrinth. Seit 1956 gibt es Künstliche Intelligenz unter diesem Namen als eigene Forschungsdisziplin. Vier Jahre später wurde ein weiterer Meilenstein entwickelt: der erste lernfähige Computer auf der Basis des Prinzips von Versuch und Irrtum. Danach folgten unter anderem Chatbots, Spieleprogramme und ein Schachcomputer, der den Weltmeister schlug. 2011 gab es einen weiteren Durchbruch: Siri, der persönliche Sprachassistent von Apple ist auf den Markt gekommen. Seitdem ist es für Nutzer selbstverständlich, dass auch Smartphones, SmartTVs oder ein Echo Lautsprecher wie Alexa natürliche Sprache verstehen, antworten und Befehle umsetzten. Was sich vor 50 Jahren noch eher nach Fantasien eines technikinteressierten Jungen anhörte, ist bereits Realität. Künstliche Intelligenz ist mit Expertensystemen in der Medizin angekommen und wir sprechen über automatische Sprachübersetzung, selbstfahrende Autos und Filmdrehbücher, die von Künstlicher Intelligenz geschrieben wurden.

Doch sind all diese Errungenschaften wirklich intelligent? Oder sind es „einfach nur“ überaus leistungsfähige, komplexe und lernende Rechensysteme? Um diese Fragen beantworten zu können, brauchen wir zunächst eine allgemein gültige Definition von Intelligenz. Die gibt es allerdings nicht. Im Allgemeinen versteht man unter Intelligenz eine ausgeprägte kognitive Leistungsfähigkeit. Aber wie diese genau auszusehen hat, ist nicht eindeutig formuliert. Vielmehr existieren Intelligenztheorien, die sich im Wesentlichen mit Informationsverarbeitung auseinandersetzten. Vielleicht wäre es daher ein erster Ansatz, mehr von intelligentem Verhalten und maschinellem Lernen zu sprechen, anstatt von Künstlicher Intelligenz. Doch welche Eigenschaften verbinden Otto Normalverbraucher mit KI? Bei einer Umfrage des US-amerikanischen Softwareunternehmens Pegasystems im Jahr 2017 hat die Mehrheit der befragten Deutschen angegeben, unter Künstlicher Intelligenz die Fähigkeit, logisch zu denken, zu lernen und Probleme zu lösen, zu verstehen. Lediglich 15 Prozent sehen das Verspüren von Emotionen als wichtige Eigenschaft. Eine andere Studie von Automatica Munich aus dem Jahr 2018 hat ergeben, dass 78 Prozent der Befragten überzeugt sind, KI könnte die sozialen Fähigkeiten von Menschen nicht ersetzen.

12 Prozent der Befragten können mit dem Begriff Künstliche Intelligenz nichts anfangen.

Branchenverband der deutschen Informations- und Telekommunikationsbranche

Auch bei der Meinungsbildung über Künstliche Intelligenz ist ein uns bereits geläufiger Begriff wesentlich: Aufklärung. Die Gefahr besteht, dass sich die Gesellschaft ihr Urteil vor allem aus Science-Fiction-Romanen und Hollywoodfilmen bildet. Doch Künstliche Intelligenz ist weit mehr als humanoide Roboter mit glänzender „Haut“ oder große, angsteinflößende Geschöpfe wie der Terminator. Und so wie es aussieht, gibt es in Deutschland derzeit eine positive Aufklärungswelle. Im November 2018 hat der Branchenverband der deutschen Informations- und Telekommunikationsbranche Bitkom ebenfalls eine Studie über Künstliche Intelligenz veröffentlicht. Bei dieser gaben 12 Prozent der Befragten an, mit dem Begriff Künstliche Intelligenz nichts anfangen zu können. Im Jahr zuvor waren es noch 22 Prozent. Außerdem sehen 62 Prozent KI als Chance. Allerdings zeigen Nachfragen bei den erwerbstätigen Studienteilnehmern, dass beim KI-Einsatz am Arbeitsplatz noch große Skepsis herrscht: 45 Prozent haben Bedenken, dass der Mensch sich zu sehr auf Künstliche Intelligenz verlassen wird. Über zwei Drittel befürchten, dass die Arbeit ihre menschliche Ebene verliert und außerdem Arbeitsplätze wegfallen könnten. Drei Viertel gaben an, dass noch zu unklar ist, wer die Verantwortung für Fehlentscheidungen einer KI übernimmt.

Und wie bereits im Irrtum 1 erklärt wurde, ist vor allem letzteres ein Hauptaspekt der digitalen Ethik: die Frage der Verantwortlichkeit. Besonders bei Künstlicher Intelligenz spielt sie eine große Rolle. Nehmen wir das Beispiel selbstfahrende Autos. Ein Dilemma wie aus dem Bilderbuch. Stellen wir uns folgendes Szenario vor: Ein fahrerloses Auto fährt auf einer zweispurigen Straße mit Zebrastreifen und Ampelanlage, als ein plötzliches Bremsversagen eintritt. Auf seiner Spur überqueren fünf junge Erwachsene, darunter auch ein Arzt und eine Schwangere, bei Rot die Fahrbahn. Auf der nebenliegenden Spur, wo gerade grün ist, läuft ein Obdachloser. Was soll das Auto tun? Dieses Szenario stammt von der Plattform Moral Machine des Massachusetts Institute of Technology. Dort können solche und ähnliche Situationen beurteilt werden, um Daten für ein möglichst großes Meinungsbild zu sammeln, wie Maschinen moralische Dilemmata lösen. Dabei handelt es sich keineswegs um realitätsferne Fantasien. Im März 2018 hat ein selbstfahrendes Auto in Arizona eine Frau erfasst und getötet. Weitere Ermittlungen haben zwar ergeben, dass dieser Unfall auch mit Fahrer nur schwer zu verhindern gewesen wäre. Dennoch zeigt der Vorfall, dass die Debatte über ethische Linien, besonders im Bereich der Verantwortung, notwendig ist. In Deutschland hat eine Ethik-Kommission im Auftrag des Bundesverkehrsministeriums bereits im Juni 2017 einen Bericht zum automatisierten und vernetzten Fahren veröffentlicht.

„Eine Aufrechnung von Opfern ist untersagt.“

Ethik-Kommission im Auftrag des Bundesverkehrsministeriums

Darin heißt es beispielsweise, dass Tier- oder Sachschäden in Kauf genommen werden sollen, wenn somit Personenschäden vermieden werden. Entscheidungen wie Leben gegen Leben sind hingegen „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“. Dabei müsse die tatsächliche Situation und das Verhalten Betroffener einbezogen werden. Wörtlich heißt es: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern. Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen.“

Auch wenn einige Formulierungen, wie beispielsweise die konkrete Verantwortungsteilung für Hersteller, Betreiber und Entscheidungsinstanzen konkreter sein könnten, ist dieser Bericht insgesamt ein Positivbeispiel für nationale ethische Regeln. Zielführender wäre allerdings, ebenfalls auf globaler Ebene zu konkreten Ergebnissen zu kommen. Auch die bereits erwähnte Bitkom Studie ergab, dass 72 Prozent der Befragten international verbindliche Abkommen zum Einsatz von Künstlicher Intelligenz fordert.

„Bevor wir für den Umgang mit KI neue Gesetze verabschieden, müssen wir uns der universellen Werte bewusst sein, die von den KI Prinzipien geschützt werden sollen.“

Brad Smith, Präsident von Microsoft

Und damit sind sie nicht die einzigen. Im Januar 2018 hat Brad Smith, Präsident von Microsoft, ethische Grundprinzipien und Rahmenbedingungen gefordert, die den Einsatz von KI beschränken und regeln: „Was Computer wirklich können sollen, müssen wir entscheiden. Dafür brauchen wir diese ethischen Grundsätze. KI Systeme müssen fair sein, und es muss eine Art Rechenschaftspflicht bestehen für alle, die KI entwickeln. Bevor wir für den Umgang mit KI neue Gesetze verabschieden, müssen wir uns der universellen Werte bewusst sein, die von den KI Prinzipien geschützt werden sollen“, wird Smith in einer Veranstaltungsankündigung auf der Microsoft Berlin Website zitiert. Auch eine Gruppe von hochrangigen Experten schließt sich einer solchen Forderung an und hat im Februar vergangenen Jahres eine Publikation mit dem Titel „The Malicious Use of Artificial Intelligence“ (deutsch: Der böswillige Gebrauch von Künstlicher Intelligenz) veröffentlicht. In dieser fordern sie eine engere Zusammenarbeit von politischen Entscheidungsträgern und technischen Forschern. Außerdem schlagen sie vor, Künstliche Intelligenz zu zentralisieren. Gleichzeitig erklären sie aber auch, weshalb das zwangsläufig einige Risiken mit sich bringen würde. Im November 2018 reagiert die Bundesregierung auf lautgewordene Forderungen mit dem Beschluss einer Strategie für Künstliche Intelligenz.

Zu dieser Strategie gehören zwölf Handlungsfelder, wie beispielsweise die Forschung zu stärken, den Transfer von Forschungsergebnissen in die Wirtschaft zu beschleunigen und den Strukturwandel auf dem Arbeitsmarkt zu unterstützen. Als neuntes wird dort den Rechtsrahmen anzupassen genannt und als zehntes, Standards – unter anderem zu ethischen Fragestellungen – zu setzen. Dafür werden auch die Empfehlungen der bereits erwähnten Datenethikkommission berücksichtigt. Entstanden sei die Strategie in Beratung mit bundesweit tätigen Verbänden, Organisationen, Institutionen und Unternehmen sowie anhand von 109 Stellungnahmen und Expertengesprächen. „Die KI-Strategie ist als lernende Strategie angelegt, die es kontinuierlich gemeinsam durch Politik, Wissenschaft, Wirtschaft und Zivilgesellschaft neu zu justieren gilt“, heißt es auf der KI-Internetseite der Bundesregierung. Auch die EU hat im April 2019 Ethikrichtlinien für eine vertrauenswürdige KI veröffentlicht. Wichtige Eckpunkte sind hier zum Beispiel der Vorrang menschlichen Handelns und menschlicher Aufsicht sowie Rechenschaftspflicht. Letzteres bedeutet in diesem Zusammenhang beispielsweise, dass Algorithmen und ihre Ergebnisse, vor allem in kritischen Zusammenhängen, beurteilt werden können. Außerdem hat die EU eine sechs Seiten lange Checkliste erstellt, an der sich Akteure, die mit an KI-Entwicklung arbeiten, orientieren sollen. Mit Fragen wie beispielsweise: Haben Sie eine Folgenabschätzung zu den Grundrechten durchgeführt, wo es negative Auswirkungen auf die Grundrechte geben könnte? Haben Sie überprüft, wie sich Ihr System in unerwarteten Situationen und Umgebungen verhält? Haben Sie darüber nachgedacht, wie Sie das KI-System entwickeln oder das Modell ohne oder mit minimaler Verwendung von potenziell sensiblen oder persönlichen Daten trainieren können?

Mit diesem Wissen scheint es fast unglaublich, dass die Künstliche Intelligenz bereits so präsent in unserem Alltag ist, es aber noch keine Gesetze diesbezüglich, sondern nur rechtlich nicht bindende Strategien gibt. Schließlich hat KI schon jetzt einen großen Einfluss auf unser Leben.

Lebewesen agieren nur deshalb autonom, weil sie ein eigenes emotionales Antriebssystem haben.

Ein weiteres Ergebnis der bereits erwähnten Bitkom Studie ist, dass 54 Prozent der Befragten der Aussage „Wer die Künstliche Intelligenz kontrolliert, kontrolliert auch die Menschen“ zustimmen. Doch werden uns Maschinen irgendwann überlegen sein? Was fest steht ist, dass sie das Potential haben den Arbeitsmarkt zu revolutionieren. Die Einschätzung, ob das nun positiv oder negativ ist, bleibt jedem selbst überlassen. Auch, dass die Entwicklungen der vergangenen Jahre die konkrete Problemstellung, für die sie programmiert wurden, verlässlich lösen und somit ihre jeweilige Aufgabe erfüllen können ist nicht wegzudiskutieren. Aber die Befürchtung, dass solche Systeme uns eines Tages überlegen sein werden, gibt es schon länger als Siri, Alexa und wie sie alle heißen. Und heute ist noch der Mensch die herrschende Spezies. Der Neurobiologe Christoph von der Malsburg argumentiert Anfang April 2019 bei einer Kortizes-Veranstaltungsreihe zum Thema „Vom Reiz der Sinne“, dass Lebewesen nur deshalb autonom agieren können, weil sie ein eigenes emotionales Antriebssystem hätten. KI-Systeme bräuchten deshalb auch ein ebensolches, um eigenständig Aufgaben lösen zu können. Außerdem erwartet von der Malsburg von einer „wirklichen“ KI weitergehende Kompetenzen als bisher: Sie soll alle möglicherweise auftauchenden Probleme auf dem Lösungsweg ihrer eigentlichen Aufgabe selbstständig erschließen können und nicht nur die, auf die sie vom Menschen trainiert wurde. Seiner Meinung nach setzt echte Autonomie eigene Emotionen und ein Verständnis von Bedeutungen voraus.

Wie soll uns also ein System überlegen werden, das von menschlicher Hand entwickelt und trainiert wird und laut von der Malsburg kein eigenes emotionales Antriebssystem hat? Wir Menschen sind es, die die Erfolge und vor allem Grenzen für das Können von Künstlicher Intelligenz setzen. Dabei geht es auch darum, dass sich solche Systeme verselbstständigen könnten. Was wäre zum Beispiel, wenn eine KI, die für militärische Einsatzfelder entwickelt wurde, eigene Befehle auslöst und durchführt? Besonders im Kontext von militärischen Konflikten ist eine solche Gefahr nicht zu unterschätzen. Wer ist beispielsweise verantwortlich, wenn ein unbemanntes, mit Waffen ausgerüstetes Luftfahrzeug, umgangssprachlich auch Kampfdrohne genannt, aufgrund „technischen Versagens“ anstelle eines gegnerischen Militärstützpunktes ein Krankenhaus mit Zivilisten trifft?

Wir müssen also gemeinsam verantwortungsvoll arbeiten und dafür sorgen – egal ob als Entwickler, Politiker, Unternehmenschef oder Bürger –, dass sowohl beim Produkt selbst wie auch bei seiner Nutzung Grundregeln eindeutig geklärt sind. Darunter fällt nicht nur der Grad an Autonomie, die wir den Systemen zuschreiben, sondern auch ethische Linien wie die Frage der Verantwortung. Wir entscheiden. Und das führt uns zum Irrtum 5: Alle Algorithmen arbeiten immer neutral und unabhängig von menschlichen Wertesystemen.Und das führt uns zum Irrtum 5: Alle Algorithmen arbeiten immer neutral und unabhängig von menschlichen Wertesystemen.

Zurück zum Hauptbeitrag