Wie ethisch ist künstliche Intelligenz?
Stellen Sie sich die folgende Situation vor: Ein Trolley kommt auf fünf gefesselte Personen zu, die auf den Gleisen festsitzen. Sie stehen an einem Ort, an dem Sie leicht den Hebel erreichen können, um die Richtung des Wagens zu ändern und ihn auf das Nebengleis umzuleiten. Wenn Sie dies tun, retten Sie das Leben von fünf Menschen. Auf dem Abstellgleis befindet sich jedoch eine Person, die ebenfalls gefesselt ist und sich nicht bewegen kann. Wenn du den Wagen umleitest, musst du dich damit abfinden, diese Person zu töten.
Stellen Sie sich nun die gleiche Situation mit einer KI auf dem Fahrersitz vor: Wie würde ihre Entscheidung aussehen? Und wie ethisch ist künstliche Intelligenz?
Das Comeback des Trolley-Problems
Wenn Sie mit philosophischen Theorien vertraut sind, können Sie sich wahrscheinlich an das Gedankenexperiment erinnern, das in letzter Zeit mit dem Aufkommen der KI, insbesondere im Zusammenhang mit dem autonomen Fahren, wieder ins öffentliche Interesse gerückt ist. Warum sollten Sie es noch einmal analysieren, wenn es bereits von so vielen Autoren in Ethik und Philosophie behandelt wurde?
In Wirklichkeit ist dieses Experiment nicht so abstrakt, wie wir denken. Es gibt viele Beispiele aus dem wirklichen Leben, in denen eine Person eine ähnliche Entscheidung treffen musste, bei der Menschenleben in Gefahr waren - und es keine Möglichkeit gab, alle Beteiligten zu retten. Wenn ein Mensch eine solche Entscheidung trifft, beruht sie auf einer schnellen Einschätzung der Situation, aber auch auf Emotionen, Stress und moralischer Beurteilung. Man könnte argumentieren, dass es sich nicht um eine Entscheidung, sondern um eine Reaktion auf die gegebene Situation handelt. Aber wie soll man bei einem von einem autonomen Auto verursachten Unfall entscheiden, welche Person gerettet werden soll, wenn das Auto selbst nicht über die moralische Urteilskraft eines Menschen verfügt und die Entscheidung auf einem Computeralgorithmus beruht?
Wie ethisch kann künstliche Intelligenz sein?
Menschliche und künstliche Verarbeitung
Unsere letzte wattx insight session drehte sich um das Bewusstsein von KI. Tobias, ein wattx Business Development-Praktikant und Psychologie-Masterstudent, hat die Unterschiede zwischen menschlicher und künstlicher Verarbeitung vorgestellt. Als Menschen lernen wir aus Erfahrung und durch den Vergleich von vergangenen Reaktionen und Konsequenzen. Wir vergleichen die Art und Weise, wie wir reagiert haben, mit den Konsequenzen, die wir bekommen haben.
Dies ist der künstlichen Verarbeitung sehr ähnlich, bei der wir Datenpunkte und Antworten zu einem bestimmten Thema in die Maschine eingeben, die diese analysiert und auf der Grundlage dieser Erkenntnisse die nächste Entscheidung trifft. Um auf unser Trolley-Experiment und das Beispiel des autonomen Fahrens zurückzukommen, können wir das Problem ganz einfach darauf reduzieren, dass wir der KI die Entscheidung überlassen, ob wir ihr vertrauen: Sollen wir darauf vertrauen, dass der Algorithmus fair zu allen ist? Oder sollten wir darauf vertrauen, dass er vor allem uns gegenüber fair ist? Wie können wir sicherstellen, dass die KI eine ethische Entscheidung trifft?
Fehlen eines moralischen Urteils und einer nicht diskriminierenden Regel
Die Befürworter der KI argumentieren, dass sie so konzipiert ist, dass sie ein sichereres Umfeld schafft, indem sie menschliche Fehler ausschließt. Wir sind jedoch nicht in der Lage, zufällige Unfälle zu vermeiden, die der Maschine die Verantwortung für eine Entscheidung übertragen würden. Stellen Sie sich vor, Sie sitzen in einem Auto, das in einen Unfall verwickelt ist. Sie haben keine Kontrolle über das Auto, aber der Algorithmus des Autos entscheidet selbst, ob er Ihr Leben oder das der Menschen in der nächsten Reihe retten soll. Auf welche Fakten und Daten wird sich diese Entscheidung stützen? Werden Sie gerettet, weil es Ihr Auto ist, oder werden die Informationen über Sie und die anderen Fahrgäste so verarbeitet, dass diese Entscheidung getroffen werden kann? Wie vermeiden wir Diskriminierung bei der Erstellung dieses Algorithmus? Auf welchen Entscheidungskriterien sollen die Entscheidungen beruhen? Und vor allem: Wer soll die endgültige Entscheidung treffen - Sie, der Wissenschaftler oder die Regierung?
Weitere Bedrohungen
Bislang haben wir uns nur auf autonome Autos konzentriert. Aber es gibt weit mehr Anwendungsfälle und damit potenzielle Bedrohungen als nur das Thema KI. Sie berührt fast jeden Aspekt des menschlichen Lebens - Sicherheit, das Risiko einer böswilligen Nutzung, die Frage der Automatisierung und des Verlusts von Arbeitsplätzen, die Bürgerrechte, die Auswirkungen auf den Umgang der Menschen miteinander usw. Es ist ziemlich sicher, dass KI in kurzer Zeit eingesetzt werden wird, um unser Leben in fast allen denkbaren Bereichen zu verbessern. Deshalb ist es umso wichtiger, über ihre Sicherheit zu sprechen. Wir müssen einfach sicherstellen, dass die KI keinen Schaden zulässt oder verursacht.
Anpassung
Ein weiterer Aspekt, der zu berücksichtigen ist, ist die menschliche Anpassung. Sie ist Teil unserer Natur und hat sich im Laufe der Evolution entwickelt. Wir wissen einfach, wie wir uns an unsere Umgebung anpassen können. Wir können KI also auch als etwas betrachten, das sich weiterentwickelt und höchstwahrscheinlich nicht aufhören wird, sich weiterzuentwickeln. In diesem Szenario werden die Menschen lernen, mit und um KI-Anwendungen herum zu leben, so wie sie gelernt haben, mit Zügen, Staubsaugern oder den Gesetzen des Landes, in dem sie leben wollen, zu leben. Die einzige Sorge ist, diesen Silberstreif zu finden.
Wenn dieses Thema Ihr Interesse geweckt hat und Sie darüber weiter diskutieren möchten, schreiben Sie uns eine Nachricht an simon@wattx.io oder lesen Sie weitere Themen zum Thema Deep Tech in unserem Blog
Header image by Thisisengineering