Einleitung §
Lange Zeit galten menschliche Individuen und Gesellschaften als die einzigen intelligenten EntscheidungstrĂ€ger. Durch die Fortschritte in der Informatik, insbesondere in den Bereichen KĂŒnstliche Intelligenz und Machine Learning, entstanden autonom agierende Maschinen, die dem Menschen diese Position zunehmend streitig machen. WĂ€hrend diese autonomen Systeme bisher nur in abgegrenzten Gebieten eingesetzt wurden, wird erwartet, dass sie in Zukunft sĂ€mtliche Bereiche des gesellschaftlichen Lebens durchdringen werden. Die Bandbreite reicht dabei von Pflege- bis hin zu militĂ€rischen Robotern. Die Front dieser Generation von neuen, intelligenten Systemen bilden derzeit fĂŒhrerlose Autos, die bereits in der Praxis getestet werden.
Das Aufkommen dieser neuen Klasse von EntscheidungstrĂ€gern wirft ein anderes Licht auf einige Ă€ltere ethische Fragen, wie z.B. das Trolley-Problem. Die Moralphilosophie behandelt solche und Ă€hnliche Dilemmata bereits seit langer Zeit, jedoch vor allem unter der Annahme, dass es sich bei den moralischen Agenten um Menschen handelt. Es hat sich gezeigt, dass sich die populĂ€ren AnsĂ€tze wie der Konsequentialismus und die Deontologische Ethik relativ einfach auf nicht-menschliche Agenten ĂŒbertragen lassen. In der praktischen Anwendung stellt sich jedoch die Frage, wie Ethisches Verhalten in nicht-menschlichen Agenten implementiert werden kann.1
Im Folgenden sollen bekannte Implementierungsstrategien fĂŒr moralisches Verhalten am Beispiel selbstfahrender Autos untersucht werden. Dazu wird zunĂ€chst erlĂ€utert, warum ungeschriebene ethische Regeln fĂŒr kĂŒnstliche Systeme von Bedeutung sind und wie sie sich zu expliziten Regeln (z.B. der StraĂenverkehrsordnung) verhalten. AnschlieĂend werden moralphilosophische Theorien vorgestellt, welche die Grundlage der meisten Implementierungen darstellen. Danach folgen einige ausgewĂ€hlte Implementierungsstrategien, die zuletzt diskutiert werden.
Abgrenzung §
Um den Rahmen der Arbeit einzugrenzen, werden im Folgenden einige Aspekte der Maschinenethik aufgezeigt, die nicht weiter betrachtet werden. So soll nicht erörtert werden, ob Maschinen aus philosophischer Perspektive die grundsĂ€tzliche BefĂ€higung zu moralischem Verhalten besitzen. Aus Sicht der Kantschen Ethik ist ein Agent nur dann im Stande moralisch zu handeln, wenn er (1) alternative Entscheidungen treffen könnte und (2) âbewusstâ die moralisch richtige Entscheidung trifft. Beide Kriterien werden durch Roboter nur bedingt erfĂŒllt, da (insbesondere) bei Maschinen streitbar ist, ob und zu welchem Grad sie ĂŒber freien Willen verfĂŒgen, der ihnen das tatsĂ€chliche Entscheiden ermöglichen wĂŒrde. Andererseits ist ungeklĂ€rt, ob und wie Maschinen in der Lage sein können, sich einer solchen Entscheidung bewusst zu sein. Es soll also weder ĂŒber freien Willen noch ĂŒber Bewusstsein diskutiert werden.
Moralische Regeln §
Es wird im Folgenden fĂŒr die Notwendigkeit von ethisch handelnden Maschinen argumentiert. Eine solche Argumentation kann allerdings nicht auf der Basis einer moralischen Bewertung erfolgen, da dies nur unter der jeweils angewandten moralischen Perspektive gĂŒltig wĂ€re.2 Um einen Zirkelschluss zu vermeiden, erfolgt eine Betrachtung aus marktwirtschaftlicher Sicht.3
Nach Maurer et al.2 werden autonome Fahrzeuge bzw. die sie steuernden Algorithmen nicht anhand von Statistiken oder durch Tests bewertet, sondern durch die ethischen und moralischen Standards der Gesellschaft. So wĂ€re ein amokfahrendes Auto fĂŒr die Hersteller ein PR-Desaster, wohingegen Autos mit sozial vorbildlichem Verhalten die soziale Akzeptanz (und somit ggf. auch die Absatzzahlen) erhöhen können. Wenn ein Auto also einen Unfall verursacht, ist es notwendig, dass es eine unter diesen UmstĂ€nden von der Gesellschaft als moralisch vertretbar wahrgenommene Entscheidung getroffen hat. Dabei wird es nicht ausreichen, sich lediglich an die expliziten juristischen Gesetze zu halten und dabei die ungeschriebenen gesellschaftlichen Normen zu ignorieren. Dies wĂŒrde zwar eine Verurteilung vor Gericht verhindern, nicht jedoch eine Verurteilung durch die Gesellschaft.
UnabhĂ€ngig davon, ob Maschinen schuldfĂ€hig sein können, wird die Schuld fĂŒr als unmoralisch wahrgenommene Entscheidung den Herstellern gegeben werden, denn ein Auto â das in absehbarer Zeit nicht als EntitĂ€t mit freiem Willen gesehen wird â kann aus Sicht der Gesellschaft schwerlich selbst fĂŒr etwaiges Fehlverhalten verantwortlich gemacht werden. Aus diesen GrĂŒnden ist es also aus marktwirtschaftlicher Sicht sinnvoll, Verhalten zu implementieren, das zumindest nach auĂen moralisch wirkt.
Verkehrsregeln §
Wie bereits festgestellt, ist es fĂŒr die Autohersteller von Vorteil, moralische Ăberlegungen in die Entscheidungslogik ihrer autonomen Fahrzeuge zu integrieren. Noch nicht geklĂ€rt ist, wie mit StraĂenverkehrsregeln umgegangen werden soll. Maurer et al.2 behaupten, dass es sich bei StraĂenverkehrsregeln in der Praxis nicht um tatsĂ€chliche Regeln handelt, die unbedingt eingehalten werden mĂŒssen, sondern eher um Richtlinien, die mit anderen Einflussfaktoren wie der Verkehrssicherheit, dem Verkehrsfluss oder allgemein der Zweckdienlichkeit abgewogen werden mĂŒssen. So hatte beispielsweise ein selbstfahrendes Auto von Google in Praxistests Schwierigkeiten an vierarmigen Kreuzungen, weil die anderen, menschlichen Autofahrer vor dem Weiterfahren nicht lange genug hielten, wĂ€hrend das Google-Auto auf RĂŒcksicht programmiert wurde und die anderen Fahrer passieren lieĂ, ohne selbst jemals loszufahren. Als Konsequenz wurde es den Autos erlaubt, die Verkehrsregeln zu brechen, wenn ihr Nutzer es ihnen befahl.
Allgemein lĂ€sst sich festhalten, dass es fĂŒr die Autohersteller unvorteilhaft wĂ€re, wenn die Autos durch das strikte Einhalten der Verkehrsregeln z.B. den Verkehrsfluss aufhielten, weil dies die gesellschaftliche Akzeptanz verringern könnte. Eine praxistaugliche Implementierung sollte daher die Interessen der unterschiedlichen Verkehrsteilnehmer gegeneinander abwiegen, anstatt Verkehrsregeln als in jedem Fall einzuhaltende Regeln anzusehen.
Moralphilosophische Theorien §
Dieser Abschnitt stellt einige moralphilosophische Theorien vor, die sich eignen könnten, um eine berechenbare mathematische Beschreibung von Moral zu erzeugen. Die hier gewÀhlte Gliederung orientiert sich an Allen et al.4, wobei anzumerken ist, dass sich eine strikte Einteilung aufgrund unscharfer Grenzen nur schwer erreichen lÀsst.
Konsequentialismus §
Der Konsequentialismus beschreibt die Ansicht, dass die normative Einordnung einer Handlung nur von ihren Konsequenzen abhÀngt. Zu den konsequentialistischen Ethiken gehören beispielsweise der Utilitarismus und der ethische Egoismus.
Utilitarismus §
Der Utilitarismus befindet diejenige Entscheidung fĂŒr gut, deren Konsequenzen den gröĂtmöglichen aggregierten Gesamtnutzen fĂŒr alle Individuen bedeuten. Man kann den Utilitarismus dementsprechend als Optimierungsproblem auffassen.
Ethischer Egoismus §
Die Theorie des ethischen Egoismus betrachtet diejenigen Handlungen als gut, die dem handelnden Individuum maximal nĂŒtzen. Sie kann wie der Utilitarismus auch als Optimierungsproblem aufgefasst werden, berĂŒcksichtigt die Interessen anderer aber nur insoweit, wie dies den eigenen Interessen dient.
Deontologische Ethik §
In der deontologischen Ethik (oder Pflichtethik) wird die normative Einordnung einer Handlung nicht (nur) aufgrund ihrer Konsequenzen vorgenommen. ZusĂ€tzlich können bestimmte Handlungen als intrinsisch gut oder schlecht gelten (z.B. lĂŒgen oder töten), wobei sich der Grad des Absolutheitsanspruchs zwischen verschiedenen Strömungen unterscheidet. Es kann zudem zu Konflikten zwischen verschiedenen Regeln kommen, wenn jemand in eine Situation gerĂ€t, in der er entweder töten oder aber lĂŒgen muss. Auch der Umgang mit derartigen Konflikten ist unterschiedlich.
Kategorischer Imperativ §
Der kategorische Imperativ Kants lÀsst sich als eine Pflicht im Sinne der deontologischen Ethik verstehen. Er lautet:
“Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.”
Eine ausfĂŒhrlichere Beschreibung kann der umfangreichen Literatur zu diesem Thema entnommen werden.
Asimovsche Ethik §
Im Gegensatz zu anderen Theorien, die zunĂ€chst fĂŒr menschliche Agenten gedacht waren, wurde die Asimovsche Ethik explizit als Regelsystem fĂŒr Maschinen formuliert und betont dementsprechend auch den Unterschied, wobei den Menschen Vorrang eingerĂ€umt wird.5 Die Regeln lauten:
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch UntĂ€tigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefĂŒgt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen â es sei denn, ein solcher Befehl wĂŒrde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschĂŒtzen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Asimov begegnet der Möglichkeit von Konflikten der Regeln durch eine strikte Priorisierung. FĂŒr den StraĂenverkehr sind diese Gesetze vermutlich nicht ausreichend, dennoch haben sie einen groĂen Einfluss auf das Gebiet der Maschinenethik und es existieren mehrere Implementierungen.67 Daher sollen die Asimovschen Robotergesetze als Prototyp einer strikt hierarchischen deontologischen Ethik erwĂ€hnt werden.
Tugendethik §
Die Tugendethik bewertet diejenigen Handlungen als gut, welche tugendhaft sind oder zumindest aus gutem Willen erfolgen. Bei einer Literaturrecherche lieĂen sich hierzu keine konkreten Implementierungsversuche finden. Laut Allen et al.8 lassen sich Tugendethiken auf Deontologische Ethiken zurĂŒckfĂŒhren, indem Tugenden als Pflichten formuliert werden. Abstrakte Tugenden lassen sich allerdings nur schwer mathematisch erfassen. Die Tugendethik wird daher im Folgenden nicht weiter betrachtet.
Implementierungsstrategien §
Verschiedene Quellen schlagen unterschiedliche Gliederungen fĂŒr ImplementierungsansĂ€tze vor.98 In Anlehnung an Allen et al.4 lassen sich einige Strategien wie folgt klassifizieren, wobei die Grenzen flieĂend sein können.

Grobe Einteilung der Strategien fĂŒr die Implementierung moralischer AI (Blau). Bereits existierende Implementierungen sind Rot dargestellt. Zu Bottom-Up-Hybrid-Verfahren konnte keine Literatur gefunden werden. Es existieren keine bekannten Top-Down-Bottom-Up-Hybrid-Implementierungen.
Top-Down §
Bei Top-Down-AnsĂ€tzen versucht man, ein System zu entwerfen, das eine vorgegebene Aufgabe löst. Ăbertragen auf moralische KI bedeutet dies, eine konkrete Moralphilosophie algorithmisch abzubilden. WĂ€hrend sich dieses Vorgehen fĂŒr âallgemeineâ kĂŒnstliche Intelligenz als zu unflexibel erwiesen hat, kann es in bestimmten Spezialbereichen weiterhin nĂŒtzlich sein.4
Konsequentialismus §
Ein Beispiel fĂŒr eine konsequentialistische Implementierung liefert der âEthical Layer.â7 Dort fĂŒhrt ein moralischer Agent interne Simulationen durch, um die Konsequenzen seiner Handlungen abzuschĂ€tzen, die dann ethisch bewertet werden. Der Ansatz ist von der Theorie der simulierenden Kognition inspiriert.10 Experimente zeigen, dass ein so programmierter Agent die Asimovschen Gesetze befolgen kann, indem er in allen Szenarien Handlungen vermeidet, die gegen diese Gesetze verstoĂen wĂŒrden.

Vereinfachte Darstellung der Ethical-Layer-Architektur. Die Steuerungseinheit des Roboters ermittelt aus den aktuellen Zielen mögliche Handlungen und schickt diese an den Ethical-Layer. In dessen Simulations-Modul werden die erwarteten ZustĂ€nde der Welt fĂŒr die jeweiligen Handlungen berechnet. Die Ergebnisse dieser Simulationen werden dann durch ein Evaluations-Modul nach Ethischen MaĂstĂ€ben bewertet und abschlieĂend an die Steuerungseinheit zurĂŒckgeschickt.
Deontologische Ethik §
Eine Implementierung deontologischer Ethik beschreibt Briggs und Scheutz.11 Ein Agent arbeitet hier auf einer widerspruchsfreien Menge von Regeln $\varphi$. ErhĂ€lt er einen Auftrag $\alpha$, prĂŒft er zunĂ€chst, ob er eine Pflicht $\mathrm{obl}$ zur ErfĂŒllung hat und ob dies seinen aktuellen Zielen widerspricht. Falls nicht, fĂŒgt er sich das ErfĂŒllen des Auftrags als neues Ziel hinzu. Formal kann dies wie folgt ausgedrĂŒckt werden: $$ \mathrm{obl}(\alpha, \varphi) \wedge \neg \mathrm{per}(\alpha, \neg \varphi)\ \rightarrow \mathrm{goal}(\alpha, \varphi) $$
Hybrid (Top-Down) §
Manche Autoren vertreten die Ansicht, dass eine einzelne Ethik nicht genĂŒgt, um Moral in autonomen Fahrzeugen vollstĂ€ndig zu implementieren.212 Daher existieren Modelle, die deontologische und konsequentialistische Elemente zusammenfĂŒhren. Maurer et al.2 beschreiben etwa einen Ansatz mit einer Mischung aus Kostenfunktion (Utility) und unverletzbaren Regeln. Die Kostenfunktion berĂŒcksichtigt gewichtete Teilziele (z.B. Verkehrsregeln, TransportbedĂŒrfnisse des Nutzers). FĂŒr jede potenzielle Trajektorie des Fahrzeugs wird die Kostenfunktion berechnet. AnschlieĂend wird versucht, die Kosten zu minimieren. Die strikten Regeln dagegen dĂŒrfen in keinem Fall verletzt werden. So soll etwa verhindert werden, dass das Fahrzeug einen FuĂgĂ€nger ĂŒberfĂ€hrt, nur weil scharfes Bremsen fĂŒr die Insassen unangenehm wĂ€re. Dilemma-Situationen werden durch PrioritĂ€ten fĂŒr die Regeln aufgelöst. Mathematisch interpretiert man dies als eine Optimierung der Kostenfunktion unter bestimmten Constraints.
Bottom-Up §
Bottom-Up-AnsĂ€tze verzichten darauf, die Moralphilosophie vorzuschreiben. Stattdessen wird das System âvon untenâ her aufgebaut, indem es schrittweise lernt (oder im evolutiven Sinne âheranwĂ€chstâ), wie es sich verhalten sollte, ohne dass explizit eine bestimmte Moraltheorie implementiert wird.
Assoziatives Lernen §
Beim assoziativen Lernen erwirbt ein Agent das erwartete moralische Verhalten anhand von Feedback. Abel et al.9 beschreiben ein Beispiel mit Reinforcement Learning in Form eines Markow-Entscheidungsproblems. Dieses wird definiert durch
- ZustÀnde $s \in S$,
- Aktionen $a \in A$,
- eine Belohnungsfunktion $R(s,a)$ und
- eine Wahrscheinlichkeitsverteilung $T(s,a,s’)$ fĂŒr ZustandsĂŒbergĂ€nge von $s$ nach $s’$, gegeben Aktion $a$.
Der Agent wĂ€hlt in jedem Zustand $s$ eine Aktion $a$, erhĂ€lt eine Belohnung und wechselt gemÀà $T$ in einen Folgezustand $s’$. Das Ziel ist es, ĂŒber die Zeit möglichst viel Belohnung anzusammeln. Experimentell lieĂ sich zeigen, dass der Agent hierbei bestimmte Dilemmata wie das âCake or Deathâ Problem13 auflösen kann.
Soziobiologisch §
Soziobiologische AnsĂ€tze versuchen, durch die Simulation einer biologischen Evolution moralische Agenten hervorzubringen. Viele existierende Arbeiten konzentrieren sich dabei auf Szenarien, in denen Individuen in direkter Konkurrenz stehen.14 Hier kommt ihnen Kooperationsverhalten zugute, wodurch sich ein evolutiver Vorteil ergibt. Dieser âeigennĂŒtzige Ursprung der Moralâ kann mancher Auffassung nach auch beim Menschen beobachtet werden.4 Da auf diesem Weg letztlich das eigene Ăberleben im Verbund gefördert wird, lĂ€sst sich dies als eine Form des ethischen Egoismus werten. FĂŒr den Einsatz in autonomen Fahrzeugen ist bislang keine derartige Lösung bekannt, was wohl an der hohen KomplexitĂ€t dieses Anwendungsfalls liegt.
Hybrid (Bottom-Up) §
Es ist auch denkbar, Bottom-Up- und Top-Down-AnsĂ€tze zu kombinieren.14 Beispielsweise könnte man bestimmte Grundregeln fest einprogrammieren und unzugĂ€nglich machen, wĂ€hrend das System weniger starre Normen oder PrioritĂ€ten durch Erfahrung lernt. Ein Vergleich zum Menschen wird oft angefĂŒhrt: Genetische Anlagen und gesellschaftliche PrĂ€gung schaffen die Grundlage, auf der sich individuelle moralische Vorstellungen ausbilden. Eine andere Möglichkeit wĂ€re, dass ein System Bottom-Up lernt, die Folgen seiner Handlungen einzuschĂ€tzen, bevor es anschlieĂend Top-Down eine ethische Entscheidung fĂ€llt.
Hybrid §
Sehr selten werden beide Prinzipien miteinander kombiniert, etwa indem man Top-Down-Module mit einem Bottom-Up-Mechanismus zur automatischen Bestimmung von Parametern (z.B. Gewichte in Kostenfunktionen) verbindet. In anderen Bereichen werden solche Methoden durchaus genutzt (etwa EvolutionĂ€re Algorithmen zur Hyperparameter-Optimierung im Deep Learning).15 FĂŒr das autonome Fahren bleibt dies weitgehend unerforscht.
Diskussion §
Top-Down §
Konsequentialistische AnsĂ€tze stoĂen in der praktischen Umsetzung an Grenzen, weil sie einerseits nie vollstĂ€ndige Informationen ĂŒber die Welt haben können und andererseits in der Theorie unendlich weit in die Zukunft schauen mĂŒssten.8 Dennoch wird dieses Problem in der Praxis meist dadurch entschĂ€rft, dass nur bis zu einem sinnvollen Zeithorizont oder nur ĂŒber eine begrenzte Zahl an Handlungsalternativen simuliert wird. Der Ethical Layer7 zeigt trotz dieser Grenzen keine offensichtlichen Nachteile, wenngleich es in Echtzeit-Szenarien (z.B. drohenden Unfallsituationen) komplex werden kann, schnell genug alle potenziellen Handlungen zu simulieren.
Deontologische Systeme sind in ihrer Logik oft eindeutig interpretierbar und erlauben Beweise ĂŒber bestimmte Zusicherungen (z.B. dass nie eine Regel verletzt wird). Dies ist bei sicherheitskritischen Anwendungen ein wichtiger Vorteil. Allerdings erweisen sie sich als unflexibel, da sie eventuell nicht zulassen, im Bedarfsfall Verkehrsregeln zu verletzen, wenn dies ein höheres Gut schĂŒtzen wĂŒrde. AuĂerdem eignen sie sich schlecht fĂŒr Dilemmata, in denen alle verfĂŒgbaren Handlungsoptionen âschlechtâ sind. Manche Philosophen, wie Kant, versuchen durch eine einzige, sehr komplexe Regel (den Kategorischen Imperativ) verschiedene FĂ€lle abzudecken, was wiederum praktisch schwer umsetzbar ist.8
Hybride Top-Down-Systeme versuchen, deontologische und konsequentialistische Ideen zu verbinden. Sie können bestimmte unverletzliche Regeln vorschreiben und fĂŒr andere Aspekte eine Kostenfunktion minimieren. Maurer et al.2 haben dies fĂŒr autonome Fahrzeuge diskutiert. Das Problem verschiebt sich allerdings oft auf die Auswahl und Gewichtung der Regeln und Kostenfunktionen. Sofern diese nicht ârichtigâ gewĂ€hlt sind, wird das Ergebnis in den Augen der Gesellschaft nicht als moralisch akzeptabel erscheinen.
Bottom-Up §
Der Vorteil von Bottom-Up-AnsĂ€tzen liegt darin, dass sie keine bestimmte Moraltheorie âhart kodieren.â Sie können also selbststĂ€ndig lernen, wie sie sich verhalten sollten, auch wenn die Gesellschaft widersprĂŒchliche Vorstellungen hat. Gleichzeitig ist ein Nachteil, dass Entscheidungsfindungen solcher Systeme meist undurchsichtig sind (z.B. bei neuronalen Netzen). FĂŒr sicherheitskritische Anwendungen möchte man jedoch nachvollziehbare Systeme. Hier bleibt also abzuwarten, wie weit Forschung zu ErklĂ€rbarkeit und Transparenz kommt.16
Fazit §
Diese Arbeit hat verschiedene Strategien zur Implementierung von Moral in autonomen Systemen vorgestellt, speziell am Beispiel selbstfahrender Autos. Es wurde erlĂ€utert, warum ungeschriebene moralische Regeln â neben den geschriebenen Verkehrsgesetzen â von Bedeutung sind. Ferner wurden verschiedene Moralphilosophien skizziert, die als Basis fĂŒr Implementierungen dienen können, insbesondere der Konsequentialismus und die Deontologische Ethik. Die vorgestellten Strategien wurden in Top-Down-, Bottom-Up- und Hybrid-AnsĂ€tze unterteilt. Die Grenzen sind jedoch flieĂend. Nach einer Diskussion der StĂ€rken und SchwĂ€chen erscheint vor allem der Ethical Layer aussichtsreich, da er eine generische, konsequentialistisch inspirierte Architektur zur moralischen Entscheidungsfindung liefert und zugleich an spezifische Anforderungen angepasst werden kann. Zudem lassen sich Hybrid-Varianten konstruieren, bei denen unterschiedliche moralische Theorien oder Lernverfahren je nach Bedarf kombiniert werden.
Vicky Charisi, Louise Dennis, Michael Fisher, Robert Lieck, Andreas Matthias, Marija Slavkovik, Janina Sombetzki, Alan F. T. Winfield, and Roman Yampolskiy. Towards moral autonomous systems. arXiv preprint arXiv:1703.04741, 2017. ↩︎ ↩︎
Markus Maurer, J. Christian Gerdes, Barbara Lenz, and Hermann Winner. Autonomes Fahren: Technische, rechtliche und gesellschaftliche Aspekte. Springer-Verlag, 2015. ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
Ebd. (vgl. dortige Argumentation) ↩︎
Colin Allen, Iva Smit, and Wendell Wallach. Artificial morality: Top-down, bottom-up, and hybrid approaches. Ethics and Information Technology 7(3):149â155, 2005. ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
Susan Leigh Anderson. Asimovâs âThree Laws of Roboticsâ and machine metaethics. AI & Society, 22(4):477â493, 2008. ↩︎
Mateo Alvarez, Ăyvind Berge, Audun Berget, Eirin BjĂžrknes, Dag V. K. Johnsen, Fredrik Madsen, and Marija Slavkovik. Implementing Asimovâs First Law of Robotics. 30th Norsk Informatikkonferanse, NIK, pages 27â29, 2017. ↩︎
Dieter Vanderelst and Alan Winfield. An architecture for ethical robots inspired by the simulation theory of cognition. Cognitive Systems Research, 48:56â66, 2018. ↩︎ ↩︎ ↩︎
Colin Allen, Gary Varner, and Jason Zinser. Prolegomena to any future artificial moral agent. Journal of Experimental & Theoretical Artificial Intelligence, 12(3):251â261, 2000. ↩︎ ↩︎ ↩︎ ↩︎
David Abel, James MacGlashan, and Michael L. Littman. Reinforcement learning as a framework for ethical decision making. In Workshops at the Thirtieth AAAI Conference on Artificial Intelligence, 2016. ↩︎ ↩︎
Simulation theory of cognition (allgemeines Konzept in der Kognitionswissenschaft). ↩︎
Gordon Michael Briggs and Matthias Scheutz. âSorry, I canât do thatâ: Developing mechanisms to appropriately reject directives in human-robot interactions. In 2015 AAAI fall symposium series, 2015. ↩︎
Noah J. Goodall. Machine ethics and automated vehicles. In Road Vehicle Automation, pages 93â102. Springer, 2014. ↩︎
Stuart Armstrong. Motivated value selection for artificial agents. In Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, 2015. ↩︎
Robert Axelrod and William D. Hamilton. The evolution of cooperation. Science, 211(4489):1390â1396, 1981. ↩︎
Steven R. Young, Derek C. Rose, Thomas P. Karnowski, Seung-Hwan Lim, and Robert M. Patton. Optimizing deep learning hyper-parameters through an evolutionary algorithm. In Proceedings of the Workshop on Machine Learning in High-Performance Computing Environments, page 4. ACM, 2015. ↩︎
Kevin Baum, Holger Hermanns, and Timo Speith. From machine ethics to machine explainability and back. In ISAIM, 2018. ↩︎