• No results found

Können wir einem Roboter verzeihen?

N/A
N/A
Protected

Academic year: 2021

Share "Können wir einem Roboter verzeihen?"

Copied!
10
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Können wir einem Roboter verzeihen?

Michael Nagenborg

Email: m.h.nagenborg@utwente.nl

Erschienen in:

Cordula Brandt, Jessica Heesen, Birgit Kröber, Uta Müller und Thomas Potthast (hrsg.): Ethik in den Kulturen – Kulturen in der Ethik. Tübingen: Narr Franke Attempto 2017, S. 291-300. ISBN 978-3-7720-8611-3.

Einleitung

In der Debatte um den rechtlichen und moralischen Status von Robotern wird nicht zuletzt die Frage diskutiert, ob wir Roboter bestrafen können. So weist Peter Asaro (2012) in „A Body to Kick, but Still No Soul to Damn“ darauf hin, dass Roboter über keine Empfindungen verfügen, somit kein Übel kennen und auch nicht bestraft werden können. Dagegen ließe sich einwenden, z. B. in

Anschluss an Daniell Dennett (1998), dass Roboter ja vielleicht doch über so etwas wie künstliche Empfindungen verfügen könnten. Mir scheint diese Diskussion jedoch nicht nur reichlich

spekulativ, sondern auch ein wenig einseitig zu sein, da wir auf eine verwerfliche Handlung nicht nur mit Strafen, sondern auch mit Verzeihen und Vergeben reagieren können. In Anschluss an Hannah Arendt werde ich im ersten Abschnitt deshalb die Bedeutung dieser Alternativen zur negativen Sanktion herausstellen.

Diese Überlegungen werden uns zur zentralen Frage hinführen: „Können wir einem Roboter verzeihen?“ Man mag gegen diese Frage einwenden, dass sie doch offensichtlich der Frage

nachgeordnet sei, ob Roboter überhaupt Träger_innen von moralischer Verantwortung sein können. Im zweiten Abschnitt möchte ich diesem Einwand die Überlegung entgegenstellen, dass wenn wir überhaupt bereit sein sollten, Roboter als Verantwortungsträger_innen zu akzeptieren, wir dann

auch prinzipiell bereit sein sollten, ihnen zu verzeihen. Ich möchte also vorschlagen, dass wir die

Möglichkeit, einem Roboter zu verzeihen, als eine notwendige Bedingung für die sinnvolle

Zuschreibung von moralischer Verantwortung in Betracht ziehen sollten. Die Frage der Vergebung ist dabei auch von anthropologischen und technikphilosophischen Interesse, da der Versuch ihrer Beantwortung dazu beitragen könnte, diesen nicht-trivialen Fall eines Roboters besser zu fassen, der weder bloße Maschine noch Person ist. Dies ist der Gegenstand des dritten Abschnittes, in dem ich auch vorschlagen möchte, die Vergebung für das Fehlverhalten eines Roboters als eine Art

(2)

ich die Leser_innen im Voraus um Verzeihung dafür, dass das Hauptaugenmerk in meinem Beitrag auf der Begründung der Frage und nicht auf ihrer Beantwortung liegt.

Eine letzte Vorbemerkung zur Begrifflichkeit: Ich habe mich dazu entschieden, nicht zwischen Verzeihen und Vergeben zu unterscheiden, da diese Unterscheidung in der Literatur nicht immer oder in immer gleicher Weise getroffen wird. Die Differenz zwischen Verzeihen und Vergeben lässt sich sicherlich in einer ausführlicheren Auseinandersetzung mit der Frage fruchtbar machen. Da es im Folgenden aber darum geht, die Frage zu plausibilisieren, wurde hier darauf verzichtet. Ähnlich verhält es sich mit „Strafen“. Die Wortwahl ist zunächst einmal Hannah Arendt (2002) geschuldet und erlaubt auch eine Zuspitzung der Problematik. Gleichwohl wäre es sicherlich sinnvoll zwischen verschiedenen negativen Reaktionen auf Fehlverhalten zu unterscheiden. Oftmals genügt uns ja ein einfaches Naserümpfen oder ein anderer Ausdruck der Missbilligung. Auch hier wäre also in möglichen zukünftigen Arbeiten eine Differenzierung geboten, die an dieser Stelle nicht geleistet werden kann.

1. Verzeihen

Die folgenden Überlegungen sind nicht zuletzt durch Hannah Arendts Überlegungen zur Rolle des Vergebens in „Vita Activa“ (2002, Original: 1958) inspiriert. Für den Bereich des politischen Handelns verweist sie dort auf die komplementäre Rolle von Versprechen und Vergeben (Arendt 2002: 300-317).1 Nun gilt es sicherlich zu beachten, dass sich Arendt ausdrücklich auf den Bereich des Handelns, nicht aber des Arbeitens oder des Herstellens bezieht. Im Gegensatz zu den beiden zuletzt genannten Bereichen zeichnet sich ihrer Meinung nach das Handeln dadurch aus, dass gemeinschaftliches und politisches Handeln nicht instrumentell und das Ergebnis nicht absehbar ist. Zudem ist Handeln eben stets ein gemeinschaftliches Handeln, insofern es im Zusammenspiel und in Auseinandersetzung mit anderen Menschen erfolgt. Die Möglichkeit, Versprechen zu geben und anzunehmen, ist für sie ein zentraler Mechanismus um mit der prinzipiellen Unberechenbarkeit von Menschen umzugehen und durch diesen Akt, „Inseln in einem Meer der Ungewißheit“ (Arendt 2002: 313) zu erschaffen.

Da es Menschen nicht immer möglich ist, Versprechen zu halten - ja, sie sich vielleicht aus guten Gründen dazu entscheiden mögen, ein Versprechen zu brechen - ist für Arendt die Möglichkeit der Vergebung ebenfalls von zentraler Bedeutung, da ansonsten jedes gebrochene Versprechen nur mit Sanktionen beantwortet werden könnte. Dies würde wiederum zur Folge haben, dass ein

gebrochenes Versprechen unsere Handlungsoptionen - unsere Freiheit - auf Dauer einschränken

1 An dieser Stelle noch ein Dankeschön an Melis Baş, die mich auf die Passage in der „Vita Activa“ aufmerksam

(3)

würde, da das Fehlverhalten einer anderen Person uns zu einem sanktionierenden Verhalten

zwingen würde. Das Gleiche gilt für den Fall, dass wir selbst ein Versprechen brechen:

Könnten wir einander nicht vergeben, d.h. uns gegenseitig von den Folgen unserer Taten wieder entbinden, beschränkte sich unsere Fähigkeit zu Handeln gewissermaßen auf eine einzige Tat, deren Folgen uns bis zu unserem Lebensende im wahrsten Sinne des Wortes verfolgen würde [...] .“ (Arendt 2002: 302)

Die Crux ist somit, dass Menschen prinzipiell unberechenbar sind, weil sie stets anders handeln könnten. Versprechen schaffen Sicherheit, indem die Personen, welche sich ein Versprechen geben, freiwillig ihre Handlungsoptionen einschränken. Durch diese freiwillige Einschränkung gewinnen wir an Freiheit, weil hierdurch gemeinschaftliches Handeln ermöglicht wird. Wenn wir jedoch auf die Nichterfüllung von Versprechen nur und ausschließlich mit Sanktionen reagieren können, dann verlieren wir genau dasjenige, was wir im Akt des Versprechens gewinnen wollten: Unsere Freiheit. Dabei gilt es m. E. zwei Gründe für die Bedeutung der Vergebung zu unterscheiden: (1) Unsere Freiheit wird dadurch eingeschränkt, dass uns ohne die Möglichkeit des Vergebens nur eine Handlungsoption zur Verfügung steht (wir sind gezwungen zu sanktionieren). (2) Sanktionen mögen die zukünftigen Optionen für das gemeinschaftliche Handeln einschränken, wenn die sanktionierte Person die Strafe als ungerecht erfährt. Hinzukommt, dass das Strafen-müssen auch für den Strafenden unerwünschte Folgen zeigen mag. In anderen Worten: Das Problem ist, dass wir ohne die Möglichkeit der Vergebung nur über eine Option verfügen, auf Fehlverhalten zu reagieren, und dass diese eine Handlungsoption in einer Art des Strafens besteht.2

Nun finden sich diese Überlegungen bei Arendt im Zusammenhang des „Handelns“ und es wäre sicherlich überzogen, sie auf alle Formen des menschlichen Verhaltens auszudehnen. Sie scheinen mir jedoch auf alle Formen menschlichen Tuns übertragbar zu sein, die durch das Geben und Annehmen von Versprechen gekennzeichnet sind. Dies scheint mir in der Tat auf viele Handlungen zuzutreffen, da beispielsweise jedweder Vertrag auf Versprechen basiert. Ebenso lassen sich

Versprechen als ein wesentlicher Bestandteil von Vertrauensbeziehungen fassen, zumindest von solchen, in denen wir darauf vertrauen, dass eine andere Person oder Institution eine Handlung X vollzieht, um Schaden von uns abzuwenden (siehe Nagenborg 2010). Eine derartige Beziehung lässt sich ohne ein (zumindest implizites) Versprechen nur schwerlich erklären. Ähnlich wie bei Arendt (2002) dienen derartige Versprechen m. E. dann auch dazu, dass Maß an Ungewissheit zu

reduzieren, indem die Möglichkeiten der legitimen Verhaltensweisen der beteiligten Personen eingeschränkt werden: Wir vertrauen eben darauf, dass jemand X und nicht Y tut. Und wer einen

2 Dass wir es hier mit zwei Teilproblemen zu tun haben, lässt sich anhand des umgekehrten Falles verdeutlichen: Wenn

wir nur Verzeihen (aber nicht Sanktionieren) könnten, dann würde dies ebenfalls unsere Handlungsfreiheit einschränken. Wir hätten dann aber nicht die Probleme, die sich aus dem Strafen-müssen ergeben.

(4)

Kaufvertrag unterschreibt, verspricht den geforderten Betrag zu zahlen. Da Menschen aber nicht immer ihre Versprechen einhalten können oder wollen, gewinnt zugleich die Möglichkeit,

verzeihen zu können, auch jenseits des engeren Bereich des Handelns (im Arendt’schen Sinne) an Bedeutung.

2. Vergebung als Bedingung von Verantwortung

Wenn Vergebung somit für das Zusammenleben von Menschen von zentraler Bedeutung ist, so spricht zunächst einmal wenig dagegen im Analogieschluss zu behaupten, dass die Möglichkeit der Vergebung von ähnlicher Bedeutung für das zukünftige Zusammenleben von Menschen und Robotern ist. Einzuwenden wäre allerdings, dass es doch bitte schön erst einmal zu klären gilt, ob Roboter für ihre Handlungen überhaupt verantwortlich sein können. Immerhin: So lange nicht die Behauptung im Raum steht, dass Roboter Verantwortungsträger_innen sind, dann können wir uns die Diskussion über die Möglichkeit der Vergebung sparen. Es mag die Leser_innen trösten, dass ich selbst der Behauptung, dass Roboter in vollem Umfang moralisch verantwortlich sein können, ausgesprochen misstrauisch gegenüberstehe.

Einige Kolleg_innen sind hier weniger zurückhaltend. So kommt beispielsweise Keith Abney zu dem Schluss: „If I am right, one day robots could become moral agents, and, so, full moral

persons.“ (Abney 2012: 50) Auch Colin Allen und Wendell Wallach (2012) schließlich „full moral agency“ für Roboter prinzipiell nicht aus, vertreten aber für die Gegenwart und absehbare Zukunft die schwächere These, dass Roboter als „artificial moral agents“ zu betrachten sein. Die Betonung liegt dabei auf „artifical.“ Wie wir später sehen werden, ist aber auch diese abgeschwächte Position nicht unproblematisch.

Eines der Probleme in der Auseinandersetzung mit derartigen Positionen ist, dass es hierbei immer um zukünftige Technologien geht. Wir sind somit gezwungen, auf einer sehr prinzipiellen Ebene

für oder wider die Idee eines moralisch-verantwortlichen Roboters zu diskutieren. Das wird

beispielsweise in dem Zitat von Abney (2012) sehr deutlich: „one day robots could become moral agents“ (Hervorhebungen von M. N.). Das inzwischen erreichte Abstraktionsniveau in der

Diskussion, was nun genau eine Person ausmacht, erweist sich dabei als wenig hilfreich. Das latente Unbehagen, welches durch anthropozentrische oder gar speziesistischen Positionen hervorgerufen wird, tut sein Übriges. Und ich finde es im Grunde selbst sympathisch, wenn man darauf hinweist, dass man doch ein wenig unverkrampfter an die Frage herangehen sollte, ob Computer denken können. Wie Alan Turing (1950) schon anmerkte: Bei anderen Menschen können wir auch nie zu 100% sicher sein, dass sie tatsächlich über Bewusstsein verfügen - aber wir sind so höflich, es dann doch anzunehmen. Warum sollten wir also nicht das gleiche tun, wenn wir es mit Maschinen zu tun haben?

(5)

Gleichwohl, es widerstrebt mir, Roboter als moralische Verantwortungsträger_innen aufzufassen. Und dieses Unbehagen möchte ich mit der Frage fassen, ob wir Robotern denn auch verzeihen können. Denn, wenn wir einem Roboter sein Fehlverhalten nicht verzeihen können, so wären wir gezwungen, stets mit Sanktionen zu reagieren. Und dies wäre - sofern meine Überlegungen in Anschluß an Hannah Arendt richtig sind - keineswegs wünschenswert. Es geht mir

dementsprechend auch nicht darum, zu behaupten, dass Roboter Träger_innen moralischer Verantwortung sind. Es soll vielmehr die Messlatte in der Diskussion um den moralischen Status von Robotern als Verantwortungsträger_innen höher gelegt werden.

3. Vergebung als Lackmus-Test der Mensch-Maschine Beziehung

Die Frage nach der Möglichkeit, einem Roboter zu verzeihen, wird nur dann philosophisch interessant, wenn wir zwei triviale Fälle ausschließen: (1) Der Roboter wird als reine Maschine wahrgenommen - dann lässt sich „verzeihen“ im besten Falle metaphorisch verwenden. (2) Der Roboter verfügt über alle relevanten Eigenschaften eines Menschen - und ist dementsprechend wie ein Mensch zu behandeln.

Zu (1): Wenn es sich bei dem Roboter um eine streng deterministische Maschine ohne eigenen Entscheidungsspielraum handelt, dann besteht zugleich auch keine Ungewissheit hinsichtlich seines Verhaltens. Dementsprechend ist es auch nicht notwendig, seine Handlungsfreiheit durch ein zusätzliches Versprechen einzuengen. Genau genommen wäre es sogar unmöglich, die

Handlungsfreiheit einzuschränken, denn eine solche Machine hat gar keine. Wenn also unser Auto uns mal wieder in Stich lässt, dann mögen wir ihm dies verzeihen - aber eben nur in einem

metaphorischen Sinne.

Zu (2): Dieser Fall ist natürlich nur im moralischen, nicht aber im technischen Sinne trivial. Aber wenn es bestimmte Eigenschaften des Menschen gibt, welche einer Vertreterin oder eines Vertreters dieser Spezies als Verantwortungsträger_in (etwa: als Person) ausweisen, dann sollten wir auch bereit sein, eben diese Kriterien auf nicht-menschliche Individuen anzuwenden. Und dies gilt unabhängig davon, um welche Kriterien und welche Art von nicht-menschlichen Individuum es sich handelt. Es ist also prinzipiell nicht einzusehen, warum wir über den Personenstatus von Robotern nicht ebenso streiten können wir über den Personenstatus von Affen.3

Dem entsprechend möchte ich mich im Folgenden auf den Fall eines Roboters konzentrieren, der mehr als eine bloße Maschine ist, aber nicht über alle erforderlichen Eigenschaften eines Menschen (bzw. einer Person) verfügt. Dies wirft unmittelbar die Frage auf, was dies denn für eine Art von

3 Faktisch scheint mir die Frage beim aktuellen technischen Entwicklungsstand hinsichtlich des Status von Affen jedoch

relevanter. Clement (2013) bietet beispielsweise einen gute Überblick zur Frage der moral agency von nicht-menschlichen Tieren.

(6)

Roboter sein soll. Tatsächlich könnte es sein, dass die Frage nach der Möglichkeit des Verzeihens, uns dabei helfen könnte, diese Frage zu beantworten.

Was können wir von einer solchen Maschine erwarten? Ein erster Vorschlag: (1)

Entscheidungsfreiheit, in dem Sinne, dass die Maschine Entscheidungen trifft und ihr Verhalten nicht allein durch äußere Einflüsse determiniert wird. (2) Dass die Maschine in der Lage ist, ihr Verhalten zu begründen. — Um hier die Messlatte in Sachen „Entscheidungsfreiheit“ nicht zu hoch zulegen:4 Wenn sich Entscheidungsfreiheit prinzipiell in Ungewissheit über das zukünftige Handeln

manifestiert (das System sich also stets anders verhalten könnte), dann ist es vielleicht ausreichend, wenn das Verhalten des Systems für einen menschlichen Beobachter nicht vorhersagbar ist. Es könnte sich also de facto um ein strikt deterministisches System handeln und wir könnten sein Verhalten vorhersagen, wenn wir denn über alle relevanten Informationen über die Umwelt sowie die genaue Konstruktion und den aktuellen Zustand des Systems verfügen würden. Dies ist aber oftmals nicht der Fall, weil sowohl die Systeme als auch ihre Umwelt zu komplex sind. Der nicht-triviale Fall eines Roboters, der mehr ist als eine bloße Maschine ist, wäre somit eine opaque

Technologie im Sinne von Sherry Turkle (2005): Eine Maschine, die uns dazu einlädt, ihr Verhalten nicht in mechanistischen, sondern in psychologischen Begriffen zu erklären. Natürlich können wir auch im Falle einer opaquen Technologie immer wieder in die modernistische Perspektive wechseln und versuchen, ihr Verhalten in mechanistischen Begriffe zu verstehen - der Punkt ist: wir tun dies in der Regel nicht.

Nun scheint jedoch die Schwierigkeit, das Verhalten des Systems mit Gewissheit vorherzusagen, uns noch nicht dazu berechtigen, den Roboter als Verantwortungsträger_in zu qualifizieren. Ein Roboter, der seine Entscheidungen dem Zufall überlässt, wäre sicherlich ein Quell der

Ungewissheit, aber nicht autonom.5 Dass beim Menschen freilich nicht anders. Wer alle Entscheidungen dem Zufall überlässt verfügt letztendlich noch nicht über Autonomie in einem relevanten Sinne. Hierfür bedarf es zumindest, dass wir Gründe für unser Verhalten anführen können (siehe Nagenborg 2005: 69). Deshalb die zweite Anforderung an Roboter, die mehr als bloße Maschinen sein sollen: Gründe für das eigene Verhalten zu haben und anführen zu können. Selbst, wenn wir bereit sind, einer solcher Maschinen zuzugestehen, dass sie ihr Handeln begründen kann, gibt es keine Gewährleistung dafür, dass gute Gründe für einen solchen Roboter mit den

4 Die Versuchung, Kriterien für Autonomie einzuführen, welche zum gegenwärtigen Zeitpunkt ausschließlich von

Menschen erfüllt werden können, ist natürlich vorhanden. Aber hier scheint mir tatsächlich ein wenig Vorsicht geboten, denn es ist gar nicht ausgemacht, dass wir Menschen derartigen Kriterien stets gerecht werden können.

5 Der Roboter wäre nicht einmal in einem technischen Sinne „autonom“ zu nennen: Die Erzeugung von Zufall ist

nämlich etwas, was deterministischen Maschinen prinzipiell nicht möglich ist. Computer greifen deshalb immer auf die Messung schwer vorhersagbarer Ereignisse in ihrer Umwelt zurückgreifen, wo sie des Zufalls benötigen. Zufällige Entscheidungen des Systems sind im technischen Sinne also stets heteronom, da die Quelle des Zufälligen außerhalb des Systems zu verorten ist.

(7)

guten Gründen für Menschen identisch sind. In Hinblick auf die Möglichkeit des Verzeihens gilt es dabei vor allem eins zu beachten: Ein guter Grund einem Menschen sein Fehlverhalten zu

verzeihen, ist die allgemeine Einsicht, dass Menschen Fehler machen oder gute Gründe haben mögen, ein Versprechen zu brechen. Wir können dann sagen: „Wenn ich in Deiner Lage gewesen wäre, ich hätte wahrscheinlich ebenso gehandelt wie Du. Dass macht Dein Verhalten zwar nicht besser, aber es ist für mich nachvollziehbar.“6 Was im Regelfall, dem Akt des Verzeihens von

menschlichen Fehlverhalten, nicht betont werden muss, ist die gemeinsame Natur des Verzeihenden und der Person, welcher verziehen wird. Was im Fall der Vergebung für einen Roboter fehlt, ist eben diese geteilte Natur und somit die prinzipielle Nachvollziehbarkeit des Fehlverhaltens. Sollten wir jedoch eines Tages feststellen müssen, dass Menschen ernsthaft und aufrichtig damit beginnen, Robotern oder anderen Maschinen zu verzeihen, dann wäre dies ein starkes Anzeichen für einen fundamentalen Wandel in der Beziehung zwischen Menschen und Maschinen - und insofern scheint mir der Akt des Verzeihens ein guter Lackmustest dafür zu sein, ob wir bereit sind, einem technischen Artefakt den Status einer nicht-trivialen Maschine (im genannten Sinne)

zukommen zu lassen. Eine solche Maschine wäre nicht nur in technischer Hinsicht

bewundernswert, sie weckt auch unser philosophisches Interesse, weil nur schwer vorstellbar ist - zumindest für mich - was eine solche Maschine auszeichnen würde und wie es sich mit solchen Maschinen leben lässt.

Wenn aber Hannah Arendt (2002) darin zu folgen ist, dass „in der Verzeihung zwar eine Schuld vergeben wird, diese Schuld sozusagen nicht im Mittelpunkt der Handlung steht“ (Arendt 2002: 308), sondern die Person, der vergeben wird, dann ist des Weiteren zu beachten, dass im Akt des Verzeihens Respekt vor dieser Person zum Ausdruckt gebracht wird: Wir vergeben „jemanden das, was er getan hat, um dessentwillen, der er ist.“ (Arendt 2002: 310). Und die Schwierigkeit zu verstehen, was das Wesen eines Roboters ausmacht, dem wir vergeben könnten, trägt wohl dazu bei, dass ganze Unterfangen so gänzlich absurd erscheinen zu lassen. Wenn wir jedoch damit beginnen sollten, derartigen Maschinen zu vergeben, dann würde sich vielleicht gerade im Akt der Vergebung zeigen, was es denn ist, dem wir verzeihen.

4. Großmut im Umgang mit Robotern

Eine weitere Schwierigkeit darüber nachzudenken, was es bedeuten mag, einem Roboter zu vergeben, liegt in dem Umstand begründet, dass Vergebung ein souveräner Akt ist. Es lassen sich insofern keine Kriterien dafür benennen, wann einer Person oder einem Roboter zu verzeihen ist.

6 Bekanntlich hat diese Nachvollziehbarkeit ihre Grenzen. Das radikal Böse zeichnet sich ja gerade dadurch aus, dass

wir nicht mehr begreifen können, wie ein Mensch so etwas tun kann. Franziska Dübgen (2016) erinnert deshalb in Anschluss an Jacques Derrida (2001) daran, dass „[…] ebenjene Gräueltaten [es sind], die nicht zu vergeben sind, die zugleich nach Vergebung verlangen.“ (Dübgen 2016: 19)

(8)

Wie ich bereits eingangs darlegt hatte, besteht der Sinn des Vergebens für Arendt darin, eine Alternative zum Strafen bereitzustellen, damit wir nicht durch das Fehlverhalten eines anderen Menschen dazu gezwungen sind, in einer bestimmten Art und Weise zu reagieren. Verzeihen zu können, aber nicht zu müssen, ermöglicht und erfordert eine freie Entscheidung. Diese Freiheit würde aber verloren gehen, wenn wir unter bestimmten Umständen dazu gezwungen wären, ein Fehlverhalten zu verzeihen. In diesem Sinne können Täter_innen vielleicht auf Vergebung hoffen, aber nicht einfordern.

Aber auch dann, wenn wir Verzeihen als souveränen Akt auffassen, so mag es doch gute Gründe dafür geben, jemanden oder etwas zu verzeihen, etwa, weil wir einen Schlussstrich ziehen und unser Verhalten nicht länger von der Vergangenheit abhängig machen wollen. Auch mag der Umgang mit Robotern, die wir im Falle eines Fehlverhaltens nur bestrafen können, auf Dauer unerwünschte Nebenwirkungen zeigen, da Strafen ein moralisch ambivalenter Akt ist. Im Kern bedeutet Strafen, das rechtmäßige Zufügen eines Übels. Einem anderen Wesen willentlich Schmerzen zu verursachen, bleibt jedoch moralisch problematisch, auch wenn dies rechtmäßig geschieht.7 Wenn wir die Möglichkeit der Vergebung kategorisch ausschließen und Fehlverhalten stets sanktionieren müssen, dann sind wir auch gezwungen, uns stets in eine moralisch ambivalente Situation zu bringen. Insofern scheint Großmut als Tugend im Umgang mit Robotern geboten, nicht nur um des Roboters, sondern auch um unser selbst willen.

Wenn wir dazu nicht in der Lage sind, so tritt erschwerend hinzu, dass derartige Roboter zu moralische Verantwortungsträger_innen zweiter Klasse werden. Denn es ist ja davon auszugehen, dass wir weiterhin in der Lage sind, Menschen zu verzeihen. Wir würden somit in einer Welt leben, in der es zwei Arten von moralischen Verantwortungsträger_innen gibt: solche, denen man

verzeihen kann, und solche, die man bestrafen muss. Dies würde aber dazu beitragen, dass sich ein unüberbrückbarer Graben zwischen den beiden Gruppen auf tut - und zwar nicht deshalb, weil wir diesen Typus von Roboter von vornherein als moralischen Verantwortungsträger_in ausschließen. Im Gegenteil: Der Kluft entsteht gerade dann, wenn wir bestimmten Robotern Verantwortung zuschreiben, aber nicht bereit sind, ihnen Fehler zu vergeben. Und es scheint mir fast, dass sich diese Roboter wünschen werden, nie mehr als nur eine Maschine geworden zu sein.

5. Zusammenfassung und Ausblick

Die Zuschreibung von moralischer Verantwortung ohne die Möglichkeit des Vergebens ist somit ein riskantes Unternehmen. Wenn wir Fehlverhalten nicht verzeihen können und bestrafen müssen,

7 In der westlichen Welt stellt sich das Problem oftmals nicht so offensichtlich, weil wir das Strafen an den Staat

delegieren. Spätestens im Umgang mit Gefangenen holt uns es uns dann aber wieder ein, wie die Ethik des Strafvollzuges zeigt.

(9)

so bringen wir selbst in eine moralisch ambivalente Situation. Auch wenn das gemeinschaftliche Handeln von Menschen und Robotern auf dem ersten Blick neue Handlungsoptionen ermöglichen mag - und somit unsere Handlungsfreiheit erweitert - droht die dann notwendigerweise

asymmetrische Beziehung, unsere Freiheit stets wieder zu untergraben.

Es fällt auch gar nicht so leicht, zu begreifen, was das bedeuten soll, dass wir einem Roboter verzeihen. Dies ist sicherlich zunächst der Komplexität des Phänomens „Verzeihen“ geschuldet, dem diese Ausführungen sicherlich nicht annähernd gerecht werden konnten. Versteht man zudem Verzeihen als souveränen Akt, dann kommt hinzu, dass keine Kriterien dafür anzuführen sind, wann jemanden oder einem Roboter zu verzeihen ist. Hinzu tritt die hier explizit gemachte Voraussetzung, dass es sich um einen Roboter handeln soll, der mehr als eine Maschine ist, aber nicht alle relevante Eigenschaften von Menschen teilt. Um es noch einmal zu betonen: Die Diskussion um die Zuschreibung von moralischer Verantwortung an eine Maschine scheint mir philosophisch witzlos, wenn wir nicht annehmen, dass diese Maschine sich vom Menschen unterscheidet. Diese Differenz auszuloten und fassbar zu machen, fällt jedoch nicht leicht. Deswegen sollten wir der vermeintlich schwächeren Forderung, Roboter als moralische Verantwortungsträger_innen eigener Art (artificial moral agents, etwa im Sinne von Allen und Wallach) mit Mißtrauen begegnen. Der moralische Status dieser Kreaturen scheint mir zurzeit unklar. Dabei geht es nicht allein darum, welchen Anforderungen eine solche Maschine erfüllen muss, sondern auch um die Frage, was dies für unseren Umgang mit diesen Entitäten eigener Art bedeuten soll. Der Akt der Vergebung bietet dabei einen guten Fokus, um dieser Frage

nachzugehen.

Literatur

Abney, Keith (2012). Robotics, Ethical Theory, and Metaethics: A Guide for the Perplexed. In: Lin, Patrick/Abney, Keith/Bekey, George A. (Hrsg.) Robot Ethics. Cambridge, MA/London, UK: MIT Press,35-52.

Assaro, Peter (2012). A Body to Kick, but Still No Soul to Damn: Legal Perspectives on Robotics. In: Lin, Patrick/Abney, Keith/Bekey, George A. (Hrsg.) Robot Ethics. Cambridge, MA/London, UK: MIT Press, 169-186.

Allen, Collin/Wallach, Wendell (2012). Moral Machines: Contraction in Terms or Abdiction of Human Responsibility? In: Lin, Patrick/Abney, Keith/Bekey, George A. (Hrsg.) Robot Ethics. Cambridge, MA/London, UK: MIT Press, 55-68.

Arendt, Hannah (2002). Vita Activa. München/Zürich: Pieper. (Amerikanisches Original: 1958; Deutschsprachige Erstveröffentlichung: 1960)

(10)

Clement, Grace (2013). Animals and Moral Agency: The Recent Debate and Its Implications. Journal of Animal Ethics 3:1, 1-14.

Dennett, Daniel Clement (1998). Brainchildren: Essays on Designing Minds. Cambridge, MA: MIT Press.

Derrida, Jacques (2001). On Cosmopolitanism and Forgiveness. London/New York: Routledge. Dübler, Franziska (2015). Grenzen der Versöhnung? polylog 34, 13-25.

Nagenborg, Michael (2005). Privatheit unter den Rahmenbedingungen der IuK-Technologien. Wiesbaden: VS Verlag.

Nagenborg, Michael (2010). Vertrauen und Datenschutz. In: Maring, Matthias (Hrsg.): Vertrauen - zwischen sozialem Kitt und der Senkung von Transaktionskosten. Karlsruhe: KIT Scientific Publishing, 153-167.

Turkle, Sherry (2005). Computer Games as Evocative Objects. In: Raessens, Joost/Goldstein, Jeffrey (Hrsg.) Handbook of Computer Game Studies. Cambridge, MA/London, UK: MIT Press, 267-279.

Referenties

GERELATEERDE DOCUMENTEN

/ De vraag van wie het schoolboek afkomstig is, is soms moeilijk te beantwoorden. / Je ziet niet direct dat het

Der „Big Brother“-Produzent nimmt sich des Ostens an – und macht die Kleinstadt Artern zu einer „Stadt der Träume“.. Lees bij de volgende opgaven steeds eerst de vraag voordat

3 Neben der Versorgung der Blumen, Pal- men oder Hecken begrüßen viele Kunden, dass die Wohnung oder das Haus in

De W D -fractie heeft uiteindelijk tegen het wetsvoorstel gestemd, omdat zij op het punt van de medische kinderdagverblijven en kin­ dertehuizen, die naar haar

Het heeft echter overwogen dat als een maatschappelijke behoefte blijkt te bestaan dat bepaalde informatie wordt voorzien van een accountantsverklaring (zoals in het

Ons onderzoek tro f slechts één ondernem ing aan die deze m ethode - en dan nog uitgesteld - toepaste m et de omschrijving „Met ingang van 1979 zal jaarlijks 1

6 {========= geschichtsfrkl -- biblatex für Historiker v1.4 ========}} Nun fängt die Arbeit an: Damit wir später feststellen können, ob ein Zitat oder Bibliographieeintrag erster

Damit kann man dann auch sagen: wir sind die Klima-Kollekte, wir sind nicht eine Organisation mit der alle etwas machen sondern wir haben ein klares