Maschinen mit Bewusstsein – Sollten Roboter Rechte haben?
Stell dir vor, dein Toaster weiß genau,
wie du deinen Toast haben willst.
Er durchforstet das Internet nach neuen, tollen Toastsorten.
Fragt dich auch mal, wie's dir geht.
Und will mit dir über die neueste Toast-Technologie plaudern.
Ab wann zählt dein Toaster als Lebewesen?
Ab wann wirst du dich fragen, ob er Gefühle hat?
Und wenn er welche hat, wäre es Mord, ihm den Stecker zu ziehen?
Könntest du ihn immer noch besitzen?
Werden wir unseren Maschinen irgendwann Rechte zugestehen müssen?
(Lebendige Musik)
Künstliche Intelligenz ist bereits jetzt weit verbreitet.
Sie zieht zu, dass die Ladenregale gefüllt sind.
Zeigt dir genau die richtige Internet-Werbung.
Und vielleicht hast du schon mal Nachrichten gelesen,
die komplett von einer KI geschrieben waren.
Heute lachen wir noch
über die primitive Simulation von Menschlichkeit bei Chat-Bots
in unseren Handys.
Aber irgendwann werden sie sich wohl nicht mehr so einfach
in "echt" oder "simuliert" einteilen lassen.
Gibt es jetzt schon Maschinen, die Rechte haben sollten?
Eher nicht.
Aber sollte es erst mal so weit sein,
sind wir überhaupt nicht darauf vorbereitet.
Ein Großteil der Rechtsphilosophie ist nicht wirklich dafür gemacht,
sich mit künstlicher Intelligenz zu befassen.
Der Anspruch auf Recht, egal ob für Mensch oder Tier,
setzt ein Bewusstsein voraus.
Leider weiß aber niemand so genau, was Bewusstsein eigentlich ist.
Manche glauben, dass es immateriell ist.
Andere sagen, es sei eine Art Zustand wie "gasförmig" oder "flüssig".
Wir verstehen auch ohne Definition intuitiv, was Bewusstsein ist,
weil wir eins haben.
Wir nehmen uns selbst und unsere Umgebung wahr,
und wissen auch, wie es sich anfühlt, das Bewusstsein zu verlieren.
Einige Neurowissenschaftler glauben,
dass jedes weit genug fortgeschrittene System
ein Bewusstsein entwickeln kann.
Mit der entsprechenden Rechenleistung
könnte sich dein Toaster also seiner selbst bewusst werden.
Und dann? Hätte er dann Rechte verdient?
Nicht so schnell.
Würden unsere "Rechte" für ihn überhaupt einen Sinn ergeben?
Ein Bewusstsein gibt uns den Anspruch auf Rechte,
weil ein Lebewesen mit einem Bewusstsein Leid verspüren kann.
Wir spüren Schmerzen nicht nur, wir sind uns dessen auch bewusst.
Roboter leiden aber nicht.
Und werden das vermutlich auch nie tun,
außer wir programmieren sie dazu.
Aber für jemanden, der nicht zwischen Freud und Leid unterscheidet,
sind Rechte unbedeutend.
Menschenrechte sind eng an unsere eigene Programmierung geknüpft.
Unsere Gehirne meiden Schmerz, weil uns das am Leben erhält.
Feuer nicht berühren, vor Raubtieren davonlaufen und so.
Also haben wir uns Rechte ausgedacht,
um uns selbst vor Schmerz zu schützen.
Auch abstrakte Rechte, zum Beispiel das auf Freiheit,
lassen sich auf ein Gefühl für "fair" und "unfair" zurückführen.
Aber würde einen bewegungslosen Toaster ein Käfig stören?
Würde es ihn kümmern, verschrottet zu werden,
wenn er keine Angst vor dem Tod hat?
Verletzen ihn Beschimpfungen, wenn er ja kein Selbstwertgefühl hat?
Und wenn wir einen Roboter nun so programmieren,
dass er Schmerzen und Gefühle empfindet?
Dass ihm Gerechtigkeit lieber ist als Ungerechtigkeit?
Er sich Freude wünscht, statt Leid, und sich dessen auch bewusst ist?
Wäre er dann menschlich genug?
Viele Forscher glauben, dass es einen explosionsartigen
technologischen Fortschritt geben wird,
wenn künstliche Intelligenzen erst selbstständig lernen
und KIs bauen, die noch intelligenter sind als sie selbst.
Dann werden wir kaum mehr kontrollieren können,
wie Roboter programmiert sind.
Was, wenn eine KI es notwendig findet,
Roboter mit Schmerzempfinden zu programmieren,
wie es die Evolutionsbiologie für die meisten Lebewesen notwendig fand?
Sollten Roboter dann auch Rechte haben?
Aber vielleicht sollten wir uns auch weniger sorgen,
welche Gefahr solche superintelligenten Roboter
für uns bedeuten, und mehr, welche Gefahr wir für sie wären.
Die ganze menschliche Identität
stützt sich auf die Idee unserer Außerordentlichkeit.
Auf den Gedanken, dass wir einzigartige Schneeflöckchen sind,
die das Recht haben, die Welt zu beherrschen.
Im Lauf der Geschichte haben Menschen schon oft
anderen Lebewesen die Leidensfähigkeit abgesprochen.
Noch im Zeitalter der Aufklärung hat René Descartes etwa behauptet,
dass Tiere nur Automaten seien, quasi Roboter.
Einem Hasen wehzutun wäre dann moralisch etwa so verwerflich,
wie einen Teddy zu schlagen.
Und die größten Verbrechen an der Menschheit
wurden oft genau damit gerechtfertigt,
dass die Opfer eher Tiere seien, als zivilisierte Menschen.
Problematischerweise haben wir auch ein wirtschaftliches Interesse daran,
Robotern keine Rechte zuzusprechen.
Es liegt grenzenloses wirtschaftliches Potenzial darin,
empfindungsfähigen KIs unseren Willen aufzuzwingen.
Vielleicht sogar durch einprogrammierte Folter.
Es wäre schließlich auch nicht das erste Mal.
Auch andere Menschen haben wir schon mittels Gewalt
zum Arbeiten gezwungen.
An ideologischen Rechtfertigungen dafür hat es noch nie gemangelt.
Sklavenbesitzer behaupteten, dass die Sklaverei den Sklaven diene,
weil sie dadurch ein Dach über dem Kopf hätten
und zum Christentum bekehrt würden.
Männer, die das Frauenwahlrecht verhindern wollten, behaupteten,
Frauen würden schwierige Entscheidungen
gerne den Männern überlassen.
Landwirte rechtfertigen das Schlachten für unsere Ernährung
damit, dass sie die Tiere vorher füttern und pflegen.
Sollten Roboter empfindungsfähig werden,
werden alle, die ihnen Rechte vorenthalten wollen,
genug Argumente finden.
Vor allem jene, die daraus einen Profit schlagen können.
Künstliche Intelligenz konfrontiert uns mit schwierigen Fragen
philosophischer Grenzen.
Fragen wir, ob Roboter ein Bewusstsein haben
oder einen Anspruch auf eigene Rechte,
stellen wir damit auch ganz grundlegende Fragen, wie:
Was macht uns menschlich?
Wieso haben wir Rechte verdient?
Ganz unabhängig von unserer Meinung werden diese Fragen
in der nahen Zukunft wohl nach einer Antwort verlangen.
Was sollen wir tun,
wenn Roboter anfangen, Rechte einzufordern?
(Vogelgezwitscher)