#NK16 - Für eine Ethik der digitalen Gesellschaft

Bericht aus dem Workshop

02.11.2016

Am vergangenen Freitag fand in Berlin der 3. Netzpolitische Kongress unter dem Motto "Für eine Ethik der digitalen Gesellschaft" der Grünen Bundestagsfraktion statt. Gut besucht und mit zahlreichen Workshops im Angebot. Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit "Deep Learning" auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?

Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat. Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten. Wie Prof. Bendel feststellte: "Maschinen sind wunderbar darin, Regeln stur zu befolgen – wenn Menschen das tun, gelten sie als Fundamentalisten". Wie viel Entscheidungsgewalt sollten also fundamentalistische Maschinen erhalten? Selbstlernende Systeme mögen bei sehr komplexen Aufgaben den Mangel der Nichtvorhersehbarkeit bestimmter Szenarien ausgleichen und sich durch ihre viel effizientere Datenverwertung auf eine Unmenge an statistisch korrekt ausgewerteten Entscheidungsgrundlagen berufen können, ganz anders als unser berühmtes Bauchgefühl.

Andererseits geht das auch mit einem Mangel an Transparenz einher, das Lernen selbstlernender Systeme lässt sich nur bedingt beaufsichtigen und – an dieser Stelle erinnerte Frau Klose an den rassistische Phrasen und Verschwörungstheorien absondernden Chatbot Tay – sie können durch entsprechenden Umgang durchaus sehr ungewollte Verhaltensweisen erlernen. Wann es sinnvoll sein könnte, auch komplexe Entscheidungen mit hoher Tragweite auf Maschinen zu übertragen, wurde im Rahmen des Workshops kontrovers diskutiert. Aber darin, dass auch eine Maschine nur so moralisch sein kann wie der Mensch dahinter, bestand ein grundsätzlicher Konsens, genauso wie in der Einschätzung, dass es sicher nicht angebracht ist, menschliche Moral in irgendeiner Weise zu idealisieren. Allerdings seien Subjektivität, Selbstwahrnehmung und Prinzipien wie Empathie für die meisten von uns bedeutsame Bestandteile menschlicher Moral, der wir eine große Legitimation bei einer Vielzahl von Entscheidungen beimessen.

Dass es also Grenzen geben muss, die den Einsatz künstlicher Intelligenz beschränken, erscheint unstrittig, eine breite gesellschaftliche Debatte wünschenswert. Tatsache ist aber: Es befinden sich bereits selbstfahrende Autos auf den Straßen, die Standards, die wir gerade diskutieren, werden bereits von Konzernen gesetzt. Wir sind also gefragt, Schwung in die Debatte zu bringen, mitzudiskutieren, mitzuentscheiden, mitzugestalten.

Für noch mehr Eindrücke zum Kongress: https://www.gruene-bundestag.de/themen/netzpolitik/netzpolitischer-kongress-2016.html Dort ist u.a. auch eine Aufzeichnung des Livestreams vorhanden.

Schlagwörter zum Artikel: