Menu

Ethik in der künstlichen Intelligenz

Neue Technologien human gestalten

Autonomes Fahren, Pflegeroboter, Gesichtserkennung: Künstliche Intelligenz hat das Potenzial, alle Lebensbereiche zu verändern. Welche Bedeutung spielen dabei ethische Fragen? Wie können intelligente Systeme human gestaltet werden? Darüber haben Experten aus verschiedenen Bereichen in der Tagung "Ethik in der künstlichen Intelligenz" gesprochen.

Tutzing / Tagungsbericht / Online seit: 15.03.2020

Von: Beate Winterer / Foto: Beate Winterer

Programm: 12. Forum Menschenwürdige Wirtschaftsordnung

Institute for Ethics in Artificial Intelligence

Ethik in der künstlichen Intelligenz

Flickr-Galerie © Akademie für Politische Bildung Tutzing. Bitte klicken Sie auf das Foto, falls die Galerie nicht lädt. Sie werden zu Flickr weitergeleitet.

"Die Künstliche Intelligenz wird unser Leben prägen", sagt Christoph Lütge, "und ich glaube, dass das vielen nicht bewusst ist", ergänzt er. Der Direktor des Institute for Ethics in Artificial Intelligence der TU München glaubt an die technologischen Möglichkeiten: Medikamentenengpässe verhindern, bedrohte Tierarten retten und Kinder erziehen. "KI kann zu einer besseren Gesellschaft beitragen, aber ohne Ethik wird sie sich nicht durchsetzen", ist er überzeugt. Wie intelligente Systeme human und ethisch gestaltet werden können, haben in der Tagung "Ethik in der künstlichen Intelligenz" Experten aus den Bereichen Philosophie, Ökonomie, Recht und Technik diskutiert.

Autonomes Fahren: Wer trägt die Risiken?

Im Autoland Deutschland erhält kaum eine KI so viel Aufmerksamkeit wie das autonome Fahren. Markus Lienkamp, Inhaber des Lehrstuhls für Fahrzeugtechnik an der TU München, sieht die Technologie auf einem guten, aber weiten Weg. In drei Jahren, glaubt er, könne sein Institut ein Fahrzeug bauen, das den Arc de Triomphe in Paris auf dem mehrspurigen Kreisverkehr umrundet. "Das geht natürlich nicht ohne Risiko. Ohne Risiko gibt es kein Autofahren", sagt Lienkamp. Wie Risiken verteilt werden, ist wiederum eine Frage der Ethik.

Lienkamp denkt dabei nicht zuerst an feindliche Übernahmen und Fremdsteuerung der Fahrzeuge, sondern an ganz praktische Probleme. Autonome Autos sind kaum in der Lage, den Grip der Fahrbahn sicher vorherzusagen. In Kalifornien, wo Google und Tesla ihre Fahrzeuge testen, spielt das kaum eine Rolle, im europäischen Winter hingegen schon. Hier könnten mehr Unfälle passieren als mit menschlichen Fahrern, die mit Glatteis vertraut sind. Obwohl Entscheidungen über Leben und Tod eine Ausnahme bleiben werden, muss die Gesellschaft entscheiden, wie sich autonome Autos in einem Dilemma verhalten: Überfahren sie einen Menschen oder fünf? Prallen sie an einen Baum oder rasen sie in eine Menschenmenge. "Es wird oft gefordert, Risiken fair zu verteilen. Aber wer würde sich in ein Auto setzen, von dem bekannt ist, dass es Risiken fair verteilt?", fragt Lienkamp.

Pflegeroboter: kein Ersatz für menschliche Nähe

In der Pflege bergen Roboter zwar kaum Lebensgefahren, frei von Risiken sind sie jedoch nicht. Assistenzsysteme, die an die an die Einnahme von Tabletten erinnern, Alarm schlagen, wenn die Badewanne überläuft, und Gesprächsthemen vorschlagen, stärken zwar die Autonomie von Pflegebedürftigen, fördern gleichzeit aber Unselbstständigkeit. Die Vorbehalte gegenüber Robotern, die Menschen pflegen sind weiterhin groß. "Ein Roboter kann aber auch Scham verhindern", sagt Nikola Biller-Andorno vom Institut für Biomedizinische Ethik der Universität Zürich und verweist auf die Intimpflege durch Fremde, die für viele einen Verlust der Lebensqualität bedeutet. Übernimmt diese ein Roboter, bleibt dem Pflegepersonal "mehr Zeit für Menschlichkeit", wie es Biller-Andorno formuliert. Jeder Mensch müsse aber selbst entscheiden dürfen, ob er von einem Roboter gepflegt werden möchte. In Zukunft werde sich zeigen, ob Roboter nur ein unvollkommener Ersatz für die Mensch-Mensch-Beziehung bleiben oder ob Mensch und Sensoren zusammenwachsen.

Bewertet KI fairer als ein Mensch?

Dasselbe gilt auch für Vorstellungsgespräche, auf die Roboter Matilda spezialisiert ist. Die intelligente Puppe sitzt vor Bewerbern auf dem Tisch und stellt 76 Fragen. Bei den Antworten interessiert den kleinen Interviewer nicht nur die Antworten, sondern auch die Mimik des Gegenübers. Wo Kritiker Willkür befürchten, sieht Christoph Lütge die Chance, Bewerber fairer zu bewerten als bisher. "Personaler entscheiden nicht immer rational", sagt er. Oft würden sie - bewusst oder unbewusst - einen bestimmten Typ Mensch bevorzugen. Entscheidend sind bei Systemen wie Matilda die Trainingsdaten, mit denen sie gefüttert wurden, um später selbstständig Entscheidungen zu treffen. Diese Daten wurden meist von Menschen erstellt. "Algorithmen können rassistisch sein", sagt Jürgen Pfeffer von der Hochschule für Politik München. Chris Köver von netzpolitik betont deshalb: "Wir müssen als Gesellschaft entscheiden, wo wir solche Systeme einsetzen wollen und wo nicht." Kritisch sieht sie unter anderem autonomatische Gesichtserkennung und die Verteilung von Sozialleistungen durch KI.

KI macht Entscheidungen nachvollziehbar

"Risiken sind aber nicht notwenigerweise überall vorhanden", betont Christian Djeffal. KI könne beispielsweise helfen, im Internet Datenschutzpräferenzen umzusetzen. "Wer klickt sich schon durch die Privatsphäreneinstellungen aller Websites, die er nutzt?", fragt der Inhaber des Lehrstuhls für Law, Science and Technology der TU München. Außerdem mache KI in vielen Bereichen Entscheidungen transparent. Als Beispiel nennt Djeffal den Berliner Schulsprengel. Eltern wollen wissen, wieso ihr Kind auf eine bestimmte Grundschule gehen muss. Mit einer datengestützten KI lassen sich die Parameter leichter nachvollziehen, die bei der Entscheidung eine Rolle spielen, darunter die soziale Zusammensetzung der Schule und ein möglichst kurzer und gefahrloser Schulweg.

Arbeit im digitalen Wandel

Durch die Diskussion über die Vor- und Nachteile von KI gerät eine andere Frage in den Hintergrund, die in Zukunft wichtiger wird: Wie werden die Daten vergütet, auf denen ein künstliches System basiert? "Die meisten Unternehmen bezahlen Menschen nur für die Dienstleistung, also die Erstellung der Trainingsdaten, nicht für das Endsystem", erklärt Djeffal. In der Konsequenz drohen marktbeherrschende Arbeitgeber und ein digitales Proletariat. Holger Bonin vom IZA - Institute for Labor Economics sieht die Zukunft des Arbeitsmarkts allerdings weniger pessimistisch. Staatliche Regulierung könne auch in der digitalen Welt soziale Sicherheit schaffen. Menschen mit Behinderung oder ohne zertifizierten Abschluss hätten durch Online-Arbeit sogar bessere Chancen auf einen guten Job. Ein Ende der Arbeit sieht er durch Künstliche Intelligenz nicht. "Routinetätigkeiten lassen sich leicht ersetzen, aber es werden auch neue Jobs entstehen. Wer kannte bis vor wenigen Jahren YouTuber und Blogger?", sagt Bonin. Vor allem in der Industrie müssten Mitarbeiter jedoch rechtzeitig geschult werden, um künftig auch abstrakte Tätigkeiten auszuführen. "Alle werden das nicht schaffen", gibt er zu.

Tweet

Weitere News

So gefährdet KI-generierte Desinformation unsere Demokratie
Folgen und Risiken für die politische Öffentlichkeit


So verbessert Künstliche Intelligenz die Gesellschaft
Chancen für Wirtschaft, Forschung und Medizin


So gelingt die Gleichstellung der Frau im Steuersystem
Fachleute diskutieren Reformen von Ehegattensplitting und Steuervergünstigungen


Digitalisierungswüste Deutschland?
Woran Verwaltung, Unternehmen und Bevölkerung bisher scheitern


Wandel durch Handel oder gefährliche Abhängigkeit?
China-Strategie soll Deutschland unabhängiger machen


Wege aus dem Fachkräftemangel
Wie Berufsausbildung und Arbeitsqualität die Arbeitsmarktsituation entspannen können