Robert Habeck

Robert Habeck


Die offizielle Seite von Robert Habeck. Grüner Politiker, Umweltminister und stellv. Ministerpräsident in Schleswig Holstein, Schriftsteller und Publizist.

Oktober 2017
M D M D F S S
« Sep    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  

Kategorien


Können Maschinen moralisch sein? #maschineunundmoral2

Maschinen haben keine Moral, denn Moral setzt ein moralisches Bewusstsein voraus…. Und Maschinen haben ja kein Bewusstsein….Ist das so?

Robert HabeckRobert Habeck

Im letzten Blog #maschineundmoral1 habe ich versucht zu analysieren, was passiert – mit uns passiert – wenn wir Roboter wie Menschen wahrnehmen. Daraus leitet sich die Frage ab: Können Maschinen moralisch sein? Dass eine relevante Frage ist, zeigt sich bei einem Blick in den Alltag: Die großen Veränderungen, die Utopien und Visionen, sie werden längst nicht mehr von der Politik, oder noch viel früher, von Religionen geschaffen, sondern von der Technologie. Das Programm zur Landung auf dem Mond, war noch ein Regierungsprogramm und Wettlauf zwischen Staaten. Dass wir auf dem Mars siedeln, hat Tesla-Chef Elon Musk zu seinem Projekt gemacht, knstliche Intelligenz Demis Hassabis von DeepMind zu seinem. eue Produktionsschübe der Landwirtschaft werden durch ihre Digitalisierung ausgelöst werden. Verbessert die Digitalisierung also in der Tradition der Aufklärung uns Menschen und unsere Welt? Oder übernimmt sie? Bringt sie am Ende die Menschheit zum Verschwinden?

Zwei Giganten des Silicon Valleys stehen hier exemplarisch für konträre Sichtweisen:

Ray Kurzweil, Director of Engineering bei Google, findet, dass uns Menschen nichts Besseres passieren kann, als durch perfektere Maschinen abgelöst zu werden. Konkret: Selbstfahrende Autos sind klimafreundlicher, machen weniger Fehler, werden weniger Unfallopfer produzieren. Abstrakt: Die Technik heilt auch unsere moralischen Mängel. Elon Musk warnt seit Jahren vor den Folgen künstlicher Intelligenz (AI) und deklariert sein Mars-Projekt sogar explizit als Fluchtoption für die Menschheit, falls die Roboter wie in dem Film “Matrix” die Menschen knechten und ausrotten. “Until people see robots going down the street killing people, they don’t know how to react because it seems so ethereal. AI is a rare case where I think we need to be proactive in regulation instead of reactive. Because I think by the time we are reactive in AI regulation, it’s too late.”

Die Wirtschaftsinformatikerin Sarah Spiekermann stellte im Interview mit Brand Eins klar: „Eine Maschine kann nicht moralisch sein, weil ihr das Bewusstsein und die Fähigkeit zur Verantwortung fehlen. Es geht vielmehr um Maschinen, die uns bei der Entfaltung dienen. Sie könnten uns dabei helfen, Werte wie Freundschaft oder Respekt zu pflegen, mehr Wissen zu erlangen oder gesünder zu werden. Um so etwas zu konstruieren, müssen die Ingenieure schon im Entwicklungsprozess Gut und Böse voneinander unterscheiden können.“

Maschinen haben keine Moral, denn Moral setzt ein moralisches Bewusstsein voraus. Und Maschinen haben ja kein Bewusstsein.

Ist das so?

Aus einer anthropozentrischen, religiösen Perspektive wohl ja. Es gibt eine menschliche Wesenhaftigkeit, die uns kategorial von Tieren oder Maschinen unterscheidet. Wir sind einerseits die Krönung der Schöpfung, ausgestattet mit Moral und Scham und Verantwortung, andererseits machen wir uns die Welt Untertan und beherrschen sie dank überlegender Technik. Nun, genau diese Weltsicht ist nicht die der Moderne. Denn die Prinzipien unserer Demokratie und Freiheit beruhen ja im Wesentlichen auf Verallgemeinerungen. Alle Menschen sind gleich an Rechten, die Würde des Menschen ist unantastbar, vor dem Gesetz sind alle gleich.

Damit Werte verallgemeinert werden können, muss Moral in pragmatischer und allgemeingültiger Hinsicht nicht als Vermögen des Menschen, sondern als Handlungsweise definiert werden. Die liebgewonnene und superiore Unterscheidung, Menschen haben die Wahlfreiheit – wir entscheiden selbst, nach welchen Kriterien wir abwägen – ist schwer objektivierbar. Kategorische Imperative sollen ja unabhängig von subjektiven Erfahrungen, Ideologien oder Wünschen gelten. Nur das macht sie universal und verallgemeinerungsfähig. Damit aber fällt die prinzipielle Wesens-Unterscheidung zwischen Maschine und Mensch, die das Leben und die Ethik so schön übersichtlich macht. Denn wir können auch Roboterhandlungen nach Maximen beurteilen.

Der Mensch kann zum Gegenstand der Maschinen werden

Der Philosoph Martin Heidegger schrieb in seinem Aufsatz „Die Frage nach der Technik“, dass wir wohl Technisches, nicht aber das Wesen der Technik verstünden. Ist diese Unterscheidung eine, die heute moralphilosophisch weiterhelfen kann? Die Technik und ihr Gebrauch gehört demnach zum Menschen dazu. Durch den technischen Gebrauch macht der Mensch Dinge zum Objekt. Und umgekehrt schafft er sich damit eine Subjekt-Position, die ihn über die Dinge stellt, zu „Maß und Mitte des Seienden“ macht. In dem Sinn ist der technische Umgang metaphysisch. „Das ganze Seiende ist Gegenstand eines einzigen Willens zur Eroberung.“ Dem technischen Umgang mit der Welt liegt eine bestimmte Ontologie zugrunde, die die Welt von einem subjektiven Standpunkt aus definiert und alle Wirklichkeit zum Rohstoff macht, mit der man umgehen kann. Diese Weltsicht – die zentrale Rolle des Menschen, die ewige Steigerung von technischer Beherrschbarkeit und Verfügbarmachung – ist jedoch nicht alternativlos. Sie ist historisch jung und an die abendländische Philosophietradition gebunden.

Heidegger selbst entwirft aus dem Geist der Anti-Moderne eine alternative Techniksicht. Er will Technik nicht aus der Mittel-Zweck-Relation heraus betrachten, nicht als Werkzeug des Menschen, als Verlängerung des Auftrags der Schöpfung, sozusagen, sondern aus ihrer eigenen Gesetzmäßigkeit heraus. Den Unterschied zwischen traditionellen Werkzeugen wie einem Hammer etwa und einem Auto sieht Heidegger darin, dass letzteres eine von menschlicher Arbeitskraft unabhängige Energiequelle hat. Moderne Technik funktioniert also unabhängig von der „Energiequelle Mensch“. Sie hat einen „Herrschaftscharakter“. „Die Nutzung“ wird zu einer „Vernutzung“ und Ziellosigkeit der Technik wird zum eigenen Ziel, weil Technik sich „nicht nur im Menschen und nicht maßgebend durch ihn“ vollzieht.

Im Zeitalter des Anthropozän formt nicht mehr die Umwelt den Menschen, sondern der Mensch die Welt nach seinen Vorstellungen und Möglichkeiten. „Aber je mehr der Mensch die Welt nach seinen Bedürfnissen gestaltet, desto mehr relativiert er seine Einzigartigkeit“, schreibt Christoph Kucklick in „Die granulare Gesellschaft“.

Der Prozess verselbstständigt sich, automatisiert sich. Und damit kehrt sich das Subjekt-Objekt-Verhältnis um. Der Mensch kann zum Gegenstand der Maschinen werden. Er wird dienstbar gemacht – und es gibt keine Möglichkeit mehr für ihn, das Ziel selbst zu bestimmen. Der Mensch wird „Humankapital“. „Indessen begegnet der Mensch heute in Wahrheit nirgends mehr sich selber, d.h. in seinem Wesen.“ Die Technik „droht der Herrschaft des Menschen zu entgleiten.“

Heidegger schrieb dies in kapitalismuskritischer, fortschrittsskeptischer Absicht. Aber die Analyse klingt bedrückend aktuell – bis zu Peppers Augen hin. Die Ideologie des Transhumanen, die die Systemfehler des Menschen technisch heilen will, läuft ja in den logischen Widerspruch, dass ihr eigener Ansatz möglicherweise fehlerhaft ist und von den Maschinen geheilt werden muss. Was also, wenn Google nicht mehr einprogrammiert wird, welche Daten gespeichert werden, sondern das selbst entscheidet? Was, wenn nicht mehr Menschen entscheiden, welche Terroristen von Drohnen erschossen werden, sondern die Drohnen die Auswahl selbst treffen – zwar aufgrund von zig Parametern, die Menschen irgendwann einmal programmiert haben, aber im Ergebnis eben nicht mehr vom Menschen gesteuert?

Gesichtserkennung und Verhaltensmuster von Verdächtigen setzen Maschinen schon heute dazu in die Lage. In Weapons of Math Destruction beschreibt Cathy O’Neil genau das. Am so genannten Terror-Tuesday wird dem amerikanischen Präsidenten einmal pro Woche eine Liste vorgelegt, welche Terrorverdächtigen von Videoprogrammen oder durch Big Data-Abgleich weltweit geortet wurden. Und es wird auch ein computerbasierter Vorschlag unterbreitet, wann und wo die Liquidation am besten zu erfolgen hat, um die Kollateralschäden möglichst gering zu halten. Die Drohnen können Krankenhäuser und Moscheen erkennen und meiden sie (meistens). Es ist offensichtlich, dass die statische Entscheidung des Präsidenten, die jetzt noch die rote Linie der Verantwortung markiert, nicht die effektivste ist. Der Verdächtige kann krank werden und eine Reise nicht antreten oder er verspätet sich und ist zum Zeitpunkt der Liquidation noch mitten in einer Menschenmenge.

Ein Programm, das den erlaubten kollateralen Schaden mit der Wirklichkeit abgleicht, dürfte viel effektiver sein. Und dann entscheiden die Computer selbst über Leben und Tod. Man mag denken, das ist ja nur in Afghanistan oder Syrien der Fall. Was geht mich das an? Aber was, wenn Einsatzkommandos unserer Polizei mit Pepper-ähnlichen Robotern ausgestattet werden, die sie begleiten, die die Emotionen der Täter entlang von Gestik und Mimik analysieren und entlang ihrer Algorithmen den entscheidenden Hinweis geben, dass der Täter gleich zur Waffe greifen wird. Auf niedrigerer Schwelle ist die computerbasierte Selektion schon gang und gebe. Bei Einreisekontrollen und Fluglisten filtern große Suchmaschinen Menschen heraus, denen Visa verweigert oder gleich die Verhaftung droht.

Im Bereich der Erotik gibt es inzwischen smarte Unterwäsche. Als letzter Clou der Wearable Technology wurde der „True Love Tester“-Büstenhalter des Japanischen Lingerie-Herstellers Ravijour auf den Markt gebracht. Das BH-Schloss ist gleichzeitig ein Sensor, der die Herzfrequenz und den Hormonhaushalt der Frau misst. Der BH lässt sich nur bei schnellem Herzschlag öffnen, also bei einem Symptom „echter Liebe“.

All solche Technik lässt sich beliebig verfeinern.

In besagtem Film ex Machina von Alex Garland revoltieren die als Haus- und Sexklaven gebauten und programmierten Androiden Kyoko und Ava gegen ihren Erfinder. Nicht nur, dass sie ihn töten, auch zeigt sich, dass das Testprogramm an Ava die ganze Zeit eigentlich ihr Plan zur Flucht in die Menschlichkeit war. Der AI-Android wollte ein richtiges Leben. Sie nahm sich das Recht aller Unterdrückten, nämlich gegen den Unterdrücker aufzubegehren. Sie handelte moralisch. Aber sie ist ein Computer und unterliegt deshalb aus menschlicher Sicht nicht den Regeln der Menschen. Da wir geläufig noch nicht einmal Tieren zubilligen, Rechte auf Leben, Freiheit zu haben, wie viel weniger haben das Maschinen.

Eine Ethik für Maschinen

Mit dem von Heidegger noch vor der Digitalisierung diagnostizierten Tausch des Subjekt-Objektverhältnisses geraten tatsächlich die fundamentalen Säulen unseres Rechtssystems ins Wanken. Es beruht auf der Unterscheidung, dass ein Subjekt handelt und ein Objekt behandelt wird. „Aber was ist ein handelndes Objekt?“, fragt Kucklick. Ideengeschichtlich ist das handelnde Subjekt frei. Deshalb ist es rechtsfähig, kann Verantwortung übernehmen, verurteilt werden und hat Rechte, die seine Freiheit schützen. Das behandelte Objekt unterliegt einer Kausalität, einer Notwendigkeit. Es ist nicht frei und kein Rechtssubjekt.

Kucklick befindet, „in der uns vertrauten humanen Welt, in der Prägeform der Industriegesellschaft, werden wir nicht bleiben können. Dazu fordern uns die Maschinen zu sehr heraus. Sie sabotieren die Gewissheiten, auf denen wir unsere bisherige Welt errichtet haben.“ Offensichtlich sind die Maschinen, die wir heute bauen können und in der Zukunft bauen werden als „handelnde Objekte“, von einer ganz anderen, kategorial im philosophischen Sinn, anderen Art als die analogen. Eine Ethik, die dies ausblendet, wird der Herausforderung nicht gerecht. Sie hat nur die Chance, bestimmte Techniken zu verbieten, weil sie transhuman sind. Wir lassen einfach Drohnen, Gesichtserkennungssoftware oder spätestens die Entscheidungssoftware nicht zu. Aber was ist mit Pepper? Lassen wir den zu?

Ich selbst glaube, wir müssen einen anderen Ansatz wählen. Wir müssen Maschinen nach ethischen Maßstäben beurteilen. Wir müssen sie so programmieren, ihnen also beibringen, nach moralischen Kategorien zu handeln. Wir müssen ihnen beibringen, zwischen Gut und Böse zu unterscheiden. Das würde ein ganz anderes und neues moralphilosophisches Rechtskonzept nach sich ziehen, das unter dem Begriff „legal artifical agents“ oder „e-persons“ diskutiert wird. „Handelnde Objekte“, die also eine Art von Intelligenz haben, weil sie selbst lernend sind, wären dann selbst schuldfähig.

Kann das funktionieren, dass wir Robotern das Gute beibringen können? Nun, Oliver Brendel hat einen selbstfahrenden Zimmerstaubsauer so programmiert, dass er organische Wesen erkennt und nicht einsaugt. Fliegen, Spinnen und Marienkäfer werden verschont. Das gleiche geht auf größerer Ebene natürlich mit landwirtschaftlichen Fahrzeugen. Oft genug wickeln Mähdrescher kleine Hasen oder Kitze lebendig in Gras- oder Strohballen, weil diese nicht flüchten, sondern sich flach ins Gras drücken. Wiesenvogelnester werden auch übergemangelt, geht der Bauer nicht vorher das Feld ab und steckt so genannte Lerchenfenster ab.

Wenn wir Menschen Auto fahren und ein Reh oder eine Katze über die Straße läuft, dann versuchen wir auszuweichen. Bei Fliegen oder Mücken tun wir das nicht. Bei Fröschen auch nicht. Bei Vögeln – manchmal. Die Frage, wie groß ein Tier sein muss, damit selbstfahrende Autos für es bremsen, diskutiert Markus Maurer an der TU Braunschweig mit seinen Studierenden. Und abstrakt ist sie schwer zu beantworten und auch die Frage, wer denn so was entscheiden darf, ist offen. Aber wenn sie einmal beantwortet ist, können Autos so programmiert werden, dass sie sich immer daran halten. Wir Menschen werden das nicht können. Also sind die Autos irgendwann in einem moralischen Sinn perfekter als wir. Und an dieser Stelle verlieren die Menschen. An dieser Stelle wird Ray Kurzweils Transhumanität Realität. Die totale Kontrolle.

Da, vielleicht gerade da, zeigt sich der Unterschied zwischen Mensch und Maschine wie in einem Brennglas: Denn oben angesprochene Verallgemeinerung unseres moralischen Systems – vor dem Gesetz sind alle Menschen gleich – ist die Bedingung dafür, dass Freiheit und Subjektivität erhalten bleibt. Wir können selbstbestimmt leben, weil unsere Werte und Institutionen eben nicht alles bestimmen oder uns programmieren, sondern nur die allgemeinen Regeln vorgeben. Innerhalb eines gewissen Rahmens können wir abweichen, treffen wir Entscheidungen, die den Situationen angemessen sind. Wäre das nicht möglich oder gewollt, müssten die Regeln alle wortgenau angewandt werden, lebten wir in einem totalitären, faschistischen Staat, der die moralische Umerziehung des Menschen zur Staatsräson hätte. Oder unsere Gefängnisse wären voller Menschen, die sich nicht an die Regeln hielten.

Computer und Roboter handeln unzweideutig. Sie haben keine Varianz. Sie tun, was sie tun sollen. Sie sind perfekter als wir Menschen. Aber sie kennen keine Gnade. In dem Moment, in dem ihre Perfektion zur allgemeinen Maßgabe wird, haben wir ein Problem. Dann definieren sie als perfekte Subjekte unsere Menschlichkeit als Mangel. Alle Lässigkeit, Nachsichtigkeit, Kreativität, Impulsivität würde in Konkurrenz zu den Computern ausgemerzt werden müssen.

Die Geschichte der industriellen Revolution ist die Geschichte der von immer komplexeren Regelsystemen. Immer neue Lebensbereiche wurden von Regeln erfasst. Oft genug wurden sie gegen die Effizienz und Herrschaft des Marktes erkämpft: Arbeitnehmerrechte, Umweltrechte, Verbraucherschutz, Markt- und Finanzkontrolle, Sozialversicherungen etc. Das Recht wurde immer stärker ausgeweitet. Wir dürfen jetzt nicht im ersten Maschinenzeitalter stecken bleiben. Das zweite hat schon längst begonnen.

Wenn wir es aufhalten wollen würden, hieße das, den Fortschritt aufhalten zu wollen. Aber abgesehen davon, dass ich sicher bin, dass wir das nicht können, bin ich nicht sicher, ob ich es will. Denn das führte gewissermaßen in eine Diktatur des Verzichts.

Und deshalb: Selbst wenn dieses neue Maschinenzeitalter so viel Verstörendes, Aufwühlendes und Beängstigendes bereithält, möchte ich mich für Optimismus entscheiden. Ich entscheide mich gegen die Vorstellung, dass der Computer gefährlicher sei als die Atombombe, wie der Mathematiker Norbert Wiener 1948 schrieb, sondern dafür, dass wir einen Weg finden, Maschinen zu bauen, die menschlichen Werten dienen. Ja, uns dafür entscheiden. Und das, obwohl ein mit Daten und Parametern gefütterter Computer mir vielleicht ausrechnen würde, wie unwahrscheinlich dies ist. Denn gerade das ist es ja, was uns als Menschen ausmacht und weiter ausmachen wird: dass wir nicht nach Algorithmen und Wahrscheinlichkeiten entscheiden, sondern frei.