Ein Roboter im menschlichen Umfeld: Sollten Systeme mit künstlicher Intelligenz in Zukunft Rechte haben?
Ein Roboter im menschlichen Umfeld: Sollten Systeme mit künstlicher Intelligenz in Zukunft Rechte haben?
07.01.2019

Web + More

Digitale Ethik: Diskutieren, bitte jetzt

Wer darf unsere Daten benutzen? Kann eine Maschine moralisch handeln? Hat eine menschenähnliche künstliche Intelligenz Rechte?

test
von Tobias Schulte

Eine Frage vorab: Woher kannst du wissen, dass dieser Artikel nicht von einer Maschine geschrieben wurde? Weil die Autorenzeile etwas anderes sagt? Weil YOUPAX das nicht macht? Weil der Text einer Maschine leicht von dem eines Menschen zu unterscheiden ist?

Zumindest die dritte Frage muss klar mit Nein beantwortet werden. Ein Kommilitone schreibt derzeit seine Bachelor-Arbeit über automatisiert erstellte Texte. In seiner Befragung lese ich zwei Spielberichte eines Fußball-Bundesliga-Spiels und bewertete sie. Beide Texte skizzieren den Spielverlauf, beschreiben Veränderungen in der Aufstellung und sind ansprechend zu lesen. Am Ende kommt die Frage aller Fragen: Welchen Text hat ein Journalist und welchen eine Maschine geschrieben? Ich bin unsicher, muss raten. Es folgt ein mulmiges Gefühl. Selbst meinen Beruf könnte mal eine Maschine ersetzen.

Ob mich das beängstigt? Ich finde es eher spannend, dass wir in der Lage sind, Maschinen zu programmieren, die so etwas können. Es zeigt, welche ungeahnten Möglichkeiten die Digitalisierung mit sich bringt. Und auch, dass wir diskutieren müssen, welche Grenzen es gibt. Was zum Guten beiträgt und was uns schadet. Es kommen Fragen zu einer digitalen Ethik auf.

Lukas Brand.
Lukas Brand.

Einer, der sich damit auseinandersetzt, ist Lukas Brand. Er ist Doktorand am Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie der Ruhr-Universität-Bochum (RUB). Ich spreche am Telefon mit ihm. Brand sagt: „Wir sind noch nicht an einem Punkt, um die bestmögliche Antwort zu finden. Entscheidend ist, dass die Leute sich der Probleme bewusst werden und darüber nachdenken.“

Zu diesen Problemen gehört, dass in den sozialen Netzwerken die Beiträge, die wir sehen, nicht mehr nach Qualitäts- und Wahrheitskriterien so wie in analogen Medien von Journalisten bestimmt werden. Algorithmen zeigen uns Texte, Bilder und Videos in unserer individuellen Reihenfolge an. Algorithmen beeinflussen unsere Freizeit, indem sie uns passende Musik, Reiseziele und Restaurants vorschlagen.

»Wir sind noch nicht an einem Punkt, um die bestmögliche Antwort zu finden. Entscheidend ist, dass die Leute sich der Probleme bewusst werden und darüber nachdenken«

Lukas Brand
Doktorand an der Theologischen Fakultät der RUB

Wir surfen in Filterblasen, in denen unsere eigene Meinung eher verstärkt statt dagegen argumentiert wird. Fake News und Verschwörungstheorien verbreiten sich und finden Anerkennung. Das Wahlverhalten kann von außen durch eine passgenaue Ansprache von Nutzern beeinflusst werden – das sollte seit der Wahl von Donald Trump klar sein.

Diese Spielregeln des Internets müssen wir verstehen und mit ihnen arbeiten. Filterblasen habe es auch früher schon gegeben, sagt Benedikt Paul Göcke (37), Prof. für Religionsphilosophie an der Theologischen Fakultät der RUB. „Mit den neuen Technologien kommen die alten Probleme, die die Menschheit begleitet haben, verstärkt ins Bewusstsein“, sagt er.

Das gilt auch für die Freiheit und Würde des Menschen – während Menschen in der Generation unserer Großeltern Angst hatten, dass sie von Spitzeln verraten werden, müssen wir damit umgehen, dass Unternehmen und Staaten digitale Daten über uns sammeln.

Prof. Benedikt Paul Göcke sitzt am Computer.
Prof. Benedikt Paul Göcke sitzt am Computer.

Gehören unsere Daten uns?

Einfordern, dass unsere Daten uns gehören, können wir jedoch auch nicht. „Es ist utopisch zu glauben, dass ich ein Angebot im Internet kostenlos nutzen kann, ohne dafür was herzugeben“, sagt Lukas Brand. „Wir haben stillschweigend unser Einverständnis dafür gegeben, dass wir mit Daten zahlen. Wenn man das nicht akzeptieren will, muss man aussteigen.“ Unsere Daten sind an sich nichts wert. Sie werden erst wertvoll, wenn sie benutzt werden können – ob zur passgenauen Anzeige von Werbung oder zur Überwachung.

„In Deutschland haben wir ein gutes Gespür dafür, was richtig und falsch ist“, sagt Brand. In China sei das Gespür anders. Dort hat die Regierung den sogenannten Citizen Score eingeführt. Ab 2020 bewertet der Staat seine Bürger anhand eines Punktekontos. Aufgrund des Werts wird entschieden, ob jemand nach Europa reisen darf, zu welchen Konditionen er einen Kredit erhält und ob er einen bestimmten Beruf ausüben darf. Wie hoch der Citizen Score eines Menschen ist, wird unter anderem dadurch beeinflusst, auf welche Seiten der Bürger im Internet klickt, wie er politisch eingestellt ist und wie sich die Freunde und Verwandten verhalten.

Wenn durch die Digitalisierung unsere alten Probleme wieder auftauchen, dann gilt das auch für die Fragen zur eigenen Persönlichkeit. Im digitalen Zeitalter integrieren wir Smartphones so in unseren Alltag, dass sie Funktionen des Gehirns übernehmen. Sie rechnen für uns, bewahren Erinnerungen und Telefonnummern. Wir verstehen die Technik als Teil unserer Persönlichkeit. Das bewiesen Forscher der Harvard Universität mit einem Experiment. Dabei schätzten Menschen, die bei einem Wissenstest Googeln durften, ihr eigenes Wissen höher ein als Menschen, die nicht Googeln durften. Haben wir den Blick auf das Wesentliche verloren?

Halb Maschine, halb menschlich: Die Zeichnung eines Gehirns.
Ein Mann sucht etwas bei Google.

Ethik der kommenden digitalisierten Welt

Die heutige digitale Welt stellt alte Fragen nach dem guten Leben in neuer Form. Doch die nächsten Herausforderungen rollen bereits auf uns zu. Es ist der Zweite Weihnachtstag. Zum Abschluss der Feiertage treffe ich mich mit meinen Cousinen und Cousins zum Raclette. Als wir uns unterhalten, dreht sich eine meiner Cousinen um und sagt: „Alexa, spiel Partymusik.“ Kurze Stille. Dann läuft Partymusik. Die Sprachsteuerung ist ein erster Bestandteil des Internets der Dinge. Wir vernetzen unsere Haushalte und Städte immer weiter. Immer mehr Daten werden gesammelt.

Dazu forschen Wissenschaftler und Unternehmen weltweit und auch in Deutschland an Systemen der künstlichen Intelligenz (KI). Die instrumentelle KI funktioniert in einem engen Rahmen aus vielen Vorgaben. Innerhalb dieses Rahmens ist sie viel besser als der Mensch. Ein Beispiel dafür ist Googles KI Alpha Zero, gegen die kein Mensch mehr eine Partie Schach gewinnen wird. Doch instrumentelle KI ist nicht wirklich intelligent. Sie wird zu einem bestimmten Zweck entwickelt und kann sich kein eigenes Ziel setzen.

Instrumentelle KI ist das Herzstück der Industrie 4.0. „Die globale Wirtschaft würde zusammenbrechen, wenn wir KI abstellen würden“, sagt Benedikt Paul Göcke. Der Straßenverkehr ändert sich durch autonome Fahrzeuge und es entwickelt sich eine smarte Landwirtschaft.

Ein Mobilfunkmast - ab 2020 könnte in Deutschland das 5G-Netz ausgebaut sein.
Ein Mobilfunkmast - ab 2020 könnte in Deutschland das 5G-Netz ausgebaut sein.

»Ethik kann man nicht programmieren.«

Jürgen Geuter
Physiker

Um Systeme mit instrumenteller KI effizient einzusetzen, benötigt es schnelles Internet. Experten schätzen, dass der neue Mobilfunkstandard 5G in Deutschland nicht vor 2020 umgesetzt wird. Mit diesem Netz können Daten in Echtzeit übertragen werden. Ein autonomes Auto könnte somit durchgängig mit anderen Fahrzeugen, Ampeln und Bahnschranken kommunizieren.

Durch die Automatisierung werden Maschinen zwangsläufig in Dilemmasituationen kommen. Situation, in denen es unausweichlich zu einem Schaden kommt und die Maschine entscheiden muss. Das bekannteste Beispiel: Ein autonom fahrendes Auto, das einen Unfall nicht mehr vermeiden kann. Wie soll die Technik reagieren? Die Ethikkommission des Verkehrsministeriums hat bereits Standards für das autonome Fahren gesetzt, indem sie ein 30-seitiges Dokument veröffentlicht hat. Doch wie lässt sich das umsetzen? Physiker Jürgen Geuter schreibt in einem Artikel auf ZEIT online: „Ethik kann man nicht programmieren“. Lukas Brand versucht jedoch so etwas Ähnliches.

In seinem Dissertationsprojekt an der RUB untersucht Brand, ob ein Computer ein moralisches Dilemma selbstständig lösen kann. Damit programmiert er keine Ethik, versucht aber, konkrete moralische Probleme von einer KI lösen zu lassen. Sein Ansatz: eine selbstlernende KI mit moralischen Entscheidungen von Menschen füttern. Anhand der unterschiedlichen Entscheidungen könnte die Maschine ein Muster moralischen Handelns abstrahieren und auf zukünftige Entscheidungen übertragen. Damit könnte die KI die beste Lösung für eine Situation entwerfen.

Das Problem: „Noch produzieren wir wenig Daten über unsere moralischen Haltungen. Damit haben wir wenig bis gar nichts, womit wir die Maschinenlernverfahren trainieren könnten“, erklärt Brand. Doch nur, wenn wir sicher sein können, ob wir einer autonomen Maschine eine Entscheidung überlassen können, wissen wir, in welchen Bereichen wir sie verwenden können. Jetzt schon ist für ihn klar, dass Maschinen auf keinen Fall Politiker, Richter oder Soldaten ersetzen sollten. In diesen Berufen müssten zu viele moralische und unsere Gesellschaft beeinflussende Entscheidungen getroffen werden.

Findet Gott menschenähnliche KI gut?

Neben der instrumentellen KI ist für Informatiker eine generelle, menschenähnliche KI der heilige Gral. Dazu stellen sich ganz neue Fragen. Zunächst: Ist es überhaupt gut, eine menschenähnliche KI zu erschaffen? „Es ist gut, aber wir sind nicht moralisch dazu verpflichtet“, antwortet Benedikt Paul Göcke.

Und findet Gott das wohl gut? Göcke argumentiert, dass das Ziel der Schöpfung sei, Gott zu lieben. „Warum sollte das nur der Mensch können? Wenn es möglich ist, dass Maschinen über Bewusstsein und Freiheit empfinden, dann können sie auch Gott lieben.“

Je weiter ich während der Gespräche in das Feld der menschenähnlichen KI eintauche, desto relevanter werden Fragen, die ich vorher mit einem Lächeln betrachtet habe. Zum Beispiel, ob der Mensch eine menschenähnliche KI benutzen darf, damit sie ihm dient? Hat die KI dann auch eine Würde und Rechte? Der Knackpunkt dabei sei, ob die Maschinen über ein Bewusstsein verfügen und beispielsweise nach Freiheit verlangen könnten. „Falls es uns gelingt, eine generelle KI zu entwickeln, die aus der Außenperspektive menschenähnliches Verhalten zeigt, dann sollten wir ihr auch Rechte zuschreiben und sie als Zweck an sich behandeln“, sagt Benedikt Paul Göcke.

Digitale Schöfpung: Zwei Hände streben aufeinander zu, berühren sich aber nicht.

»Es eröffnen sich unglaubliche Möglichkeiten. Es kann uns aber auch alles um die Ohren fliegen.«

Benedikt Paul Göcke
Prof. für Religionsphilosophie an der Thelogischen Fakutltät der RUB

Da diese Szenarien eben Szenarien und noch nicht Realität sind, haben wir die Möglichkeit, Ideale zu diskutieren und festzulegen, die den Weg vorgeben. Der Bochumer Professor schlägt die Maximen Freiheit und Gerechtigkeit vor. KI solle dabei helfen, dass jeder Mensch ein gutes Leben führen könne. Göcke ist überzeugt, dass es derzeit keine wichtigere gesellschaftliche Diskussion als die über die digitale Ethik gebe. „Es eröffnen sich unglaubliche Möglichkeiten. Es kann uns aber auch alles um die Ohren fliegen“, sagt der Professor.

Deshalb sollten auch wir uns immer wieder hinterfragen, wie viele Daten wir von uns preisgeben und wie sehr die Technik unsren Alltag bestimmt. Wenn Maschinen immer mehr menschliche Berufe übernehmen können, liegt eine Chance darin, sich darauf zu besinnen, was unsere Stärken als Menschen sind und was uns von Maschinen unterscheidet. Vielleicht können wir uns mehr denn je auf unsere Mitmenschen und Gott konzentrieren. Simple Routinearbeiten müssen wir nicht mehr erledigen. Das Schreiben eines Spielberichts über ein Fußballspiel gehört eben dazu. Übrigens: Ich habe es nicht geschafft, den Artikel zu erkennen, der von einer Maschine statt einem Journalisten geschrieben wurde.

Die Hand eines Roboters streckt sich uns entgegen.

Lese-Tipp
Wenn du dich intensiver mit dem Thema digitale Ethik beschäftigen möchtest, bietet sich das Buch von Lukas Brand an: „Künstliche Tugend. Roboter als moralische Akteure“.

Mix

Mit der Nutzung dieser Website erklärst du dich damit einverstanden, dass wir Cookies verwenden. Mehr Informationen