Fachartikel Sicherheit , Software

Künstliche Intelligenz und Ethik

Chancen und Gefahren

27.01.2023

Smart Grids, Effizienz­steigerung des Energie­handels sowie der Nutzung der Energie­infra­struktur und -quellen, KI-basierte Inter­aktion mit Kundinnen und Kunden … – im Kontext des Energie­systems eröffnen sich grosse Chancen dank künstlicher Intelli­genz. Gleichzeitig gilt es aus ethischer Sicht, nicht nur das Thema «Cyber­security» im Blick zu haben.

Künstliche Intelligenz erweist sich als weitaus gefährlicher als Atomwaffen. Warum haben wir also keine Regulierungs­aufsicht?» [1] Elon Musk, Mitgründer des Online-Bezahlsystems PayPal und von Space X sowie Chef von Tesla – und sicherlich kein Technologiefeind – weist auf die Gefahren von KI hin und fordert eine normative Reflexion von KI. Stephen Hawking schätzt dies ähnlich ein: «Wenn wir nicht lernen, wie wir uns auf die potenziellen Risiken vorbereiten und sie vermeiden können, könnte die künstliche Intelligenz das schlimmste Ereignis in der Geschichte unserer Zivilisation sein. Sie bringt Gefahren mit sich, wie zum Beispiel mächtige autonome Waffen oder neue Wege für die wenigen, um die vielen zu unterdrücken. Sie könnte grosse Störungen unserer Wirtschaft verursachen.» [2] Im Folgenden soll KI aus ethischer Perspektive diskutiert werden [3], auf der Basis, technologiebasierten Fortschritt und Ethik in einer Interaktion zu denken [4].

Ethische datenbasierte Systeme?

Können Menschen die ethische Verantwortung an datenbasierte Systeme, DS, delegieren? Bezeichnungen wie «moral technologies» legen eine solche Möglichkeit nahe. Während DS ethische Regeln befolgen können sowie darauf basierend handeln können, ist ihnen aus folgenden Gründen die Moralfähigkeit, die Menschen ethisch begründbar zukommt [7], abzusprechen: Technologien müssen ohne Freiheit gedacht werden. Denn Technologien werden von Menschen entworfen, entwickelt und hergestellt, d. h. sie werden heteronom produziert. So erweist sich auch die Aneignung ethischer Normen von Menschen gesteuert. In letzter Konsequenz bleiben demnach Maschinen immer in dieser Fremdbestimmung gefangen. Auch selbstlernende Maschinen gehen bildlich gesprochen auf eine erste Zeile des Codes zurück, die immer vom Menschen stammt.

Ohne Freiheit kann Technologien auch keine Autonomie zugesprochen werden. Während es Menschen entspricht, für sich selbst allgemeine moralische Regeln und Prinzipien zu erkennen, diese für sich selbst zu setzen und diese ihren Handlungen zugrunde zu legen [7], ist dies Technologien nicht möglich. Technologien sind primär auf Zweckmässigkeit ausgerichtet und können sich zwar als selbstlernende Systeme Regeln setzen, z. B. um eine Effizienzsteigerung zu erreichen. Diese Regeln weisen aber keine ethische Qualität auf. Denn Maschinen scheitern am Prinzip der Verallgemeinbarkeit. Daher sollte z. B. im Bereich der Automatisierung von Mobilität der Begriff «autonome Fahrzeuge» vermieden und durch den Begriff «selbstfahrende Fahrzeuge» ersetzt werden [8].

Um einem allfälligen Missverständnis vorzubeugen: DS können ethische Regeln einprogrammiert bzw. antrainiert werden, um ein ethisch legitimes Handeln einer Maschine zu erreichen [9]. Die Menschenwürde und die Menschenrechte aller Menschen wirken in dieser Verantwortung der Menschen konstituierend und leitend, DS mit Ethik zu schaffen: human rights based DS HRBDS.

Komplexität von Ethik

DS sind in der Lage, ethische Regeln zu befolgen sowie darauf basierend Handlungen zu vollziehen. Damit man im Zuge dessen der komplexen Realität gerecht wird, braucht es dabei deutlich mehr als Regeln wie die «Asimovschen Gesetze» [10].

Um der Komplexität der Ethik gerecht zu werden, ist aber nicht mathematische oder digitale Ethik zu betreiben. Sondern es gilt zu beachten, dass sich Ethik in ihrer Komplexität und in ihrer Gesamtheit wegen ihrer Sensibilität für die regelüberragende Einzigartigkeit des Konkreten als nicht in die Sprache der Mathematik und der Programmierung übersetzbar erweist. U. a. deswegen handelt es sich bei Ethik nicht um Kasuistik. Gewisse Aspekte der Ethik lassen sich als Regeln datenbasierten Systemen programmieren bzw. antrainieren. Einige ethische Elemente entziehen sich diesem digitalen Zugriff. So lassen sich aber DS beispielsweise das Prinzip der Menschenwürde aller Menschen und die Menschenrechte sowie ethische Handlungsmaximen (Verbot der Lüge, des Diebstahls) vermitteln. Selbst in diesem Bereich des Möglichen sollte aber nicht vernachlässigt werden, dass DS zwar diese Regeln lernen und befolgen können, diese Achtung der Regeln ohne Wissen um die ethische Qualität der Regeln erfolgt. In anderen Worten: DS würden auch nichtethische oder unethische Regeln in gleichem Masse respektieren.

Schwierig bis unmöglich wird ein Transfer der Ethik in die Mathematik und in die Programmierung u. a. dann, wenn Handlungsmaximen divergieren oder kollidieren. Die zunehmende Komplexität der Lebenswirklichkeit fordert zu realitätsgerechten Normeinsichten und zu differenzierteren und besseren Abwägungen heraus, was DS wegen ihrer fehlenden Moralfähigkeit überfordert. Unmöglich erweist sich die Übersetzung der Ethik in die Sprache der Mathematik, der Programmierung und der Digitalisierung in Situationen und Fällen, wo beim Menschen die Tugend der Epikie und das Gewissen besonders zum Zuge kommen. «Epikie ist die Berichtigung des Gesetzes da, wo es in Folge seiner generellen Fassung lückenhaft ist.» [11] Epikie trägt der Wirklichkeit Rechnung, dass in der konkreten Begegnung mit konkreten Menschen in einer konkreten Situation Regeln an ihre Grenzen kommen, da das Konkrete in seiner Einzigartigkeit das Regelhafte weit übertrifft. Darüber hinaus wird den Menschen eine Normgestaltungsverantwortung zugemutet, die für DS aufgrund ihres Mangels an Moralfähigkeit unerreichbar bleibt. Diese menschliche Normgestaltungsverantwortung zielt darauf ab, dass Regeln kontinuierlich kritisch hinterfragt und – falls nötig – im Dienste einer prospektiven ethischen Verbesserung von Menschen angepasst werden [12].

Die Verantwortung, Normen zu gestalten und zu nutzen

Diese prospektive kreative Ebene umfasst auch eine Norm­gebungs­verant­wortung der Menschen. «Die Wahrnehmung des sittlichen Anspruchs bedeutet ja keineswegs bloss ein Ablesen von normativ festgelegtem Sach- und Sinnverhalten, sondern ist immer schon ein schöpferisches Sehen und Entdecken. Schöpferisch ist dieses Sehen und Entdecken dadurch, dass der Mensch aufgefordert ist, in seiner Fantasie neue sinnvolle Momente der Lebensgestaltung zu riskieren, die im bisherigen Regelsystem nicht vorkamen. Die sittliche Gutheit der Person drängt ihn dazu, das menschlich Richtige in Form von Modellen weiterzuentwickeln.» [12] Auch die Norm­gebungs­verant­wortung geht weit über das in die Sprache der Mathematik und der Programmierung Übersetzbare hinaus und kann daher datenbasierten Systemen nicht übertragen werden.

Die Komplexität der ethischen Auseinandersetzung mit datenbasierten Systemen erhöht zusätzlich noch zum einen die sogenannte «dual use»-Problematik. Diese umfasst das Potenzial, dass das gleiche datenbasierte System für einen legitimen oder illegitimen Zweck eingesetzt werden kann. Dies lässt sich am Beispiel der Drohne veranschaulichen: Drohnen können dafür eingesetzt werden, um Menschen in Katastrophengebieten mit lebensnotwendigen Nahrungsmitteln zu versorgen, wo Menschen nicht mehr hinkommen. Die gleichen Drohnen können aber auch als sogenannte «Killerdrohnen» für gezielte Tötungen eingesetzt werden. Und selbstverständlich fällt die ethische Bewertung eines solchen DS in den beiden Situationen diametral entgegengesetzt aus. Diese «dual use»-Problematik zeigt die Grenzen einer generellen Bewertung von Drohnen auf. Eine allgemeine Einschätzung zu Drohnen muss für eine differenzierte ethische Analyse durch eine Betrachtung der Drohnen in ihrer Anwendung ergänzt werden.

Zum anderen kann es zu «Ambivalenz» kommen. Ambivalenz bezeichnet die Möglichkeit, dass ein datenbasiertes System einem ethisch guten Zweck dienen kann, dabei aber auch gleichzeitig etwas ethisch Schlechtes umfasst. Dies lässt sich am Beispiel der Automatisierung von Mobilität zeigen: Staus mit ihren ökologisch und ökonomisch negativen Auswirkungen entstehen unter anderem wegen der Variation von Tempo und aufgrund der unterschiedlichen Geschwindigkeiten der einzelnen Fahrzeuge. Würde es gelingen, beides zu minimieren, käme es zu einer Verringerung von Staus. Automatisierte Mobilität umfasst beides – die Abschwächung der Variation von Geschwindigkeit durch einen Verkehrsfluss auf gleichem Tempo sowie die Vereinheitlichung von Geschwindigkeiten aller Fahrzeuge durch die dezentrale Kommunikation zwischen den einzelnen Fahrzeugen. Verbunden mit der dezentralen Kommunikation zwischen den Fahrzeugen sind auch deutlich weniger Unfälle zu erwarten, da die fahrenden Systeme dezentral untereinander dafür sorgen, dass es grossmehrheitlich nicht zu Zusammenstössen kommt. Dies bedeutet nicht, dass Unfälle vollumfänglich ausgeschlossen werden können. Denn selbstverständlich kann es bei fahrenden Systemen auch zu Fehlern kommen; sie treten aber viel seltener auf, da Unfallursachen wie z. B. Ablenkung, Müdigkeit, Stress, Emotionen ausgeschlossen werden können [13]. Weniger Staus, weniger Unfälle – erfreuliche Perspektiven aus ethischer Sicht, die sich bei der Automatisierung von Mobilität ergeben.

Gleichzeitig umfasst die Automatisierung von Mobilität die Gefährdung der menschenrechtlich geschützten Privatsphäre und des menschenrechtlich garantierten Datenschutzes. Zudem trägt sie zur global ungleichen Verteilung von Vor- und Nachteilen bei. Während reiche Länder auf automatisierte Mobilität umstellen können, leiden Menschen in ärmeren Ländern unter menschenunwürdigen und menschenrechtsverletzenden Arbeitsbedingungen bzw. moderner Sklaverei sowie unter Umweltzerstörung bei der Schürfung der Rohstoffe bzw. bei der Herstellung der automatisiert fahrenden Systeme. Ethik ortet hier dringlichen Handlungsbedarf.

Schlussbemerkung

Datenbasierte Systeme und deren Nutzung brauchen unbedingt und mit hoher Dringlichkeit ethische Orientierung von Menschen. Ethische Prinzipien und Normen und eine darauf basierende rechtliche Regulierung eröffnen die Möglichkeit gezielter Förderung der Nutzung ethischer Chancen datenbasierter Systeme, um sie als Innovation zum ethisch Guten einsetzen zu können. Diese befähigen zudem zur Vermeidung von ethischen Risiken und Gefahren.

Anlass zur Hoffnung und Zuversicht, dass dies möglich ist, gibt, dass die Menschheit in ihrer Geschichte bereits gezeigt hat, dass sie fähig ist, nicht immer das technisch Machbare «blind» zu verfolgen und umzusetzen, sondern auch auf technisch Machbares verzichtet, sich zurückhält oder sich selbst beschränkt, wenn das Wohl der Menschheit und des Planeten Erde auf dem Spiel steht. Beispielsweise haben – vereinfacht gesagt – Menschen im Bereich der Nuklear­technologie geforscht, man hat die Atombombe entwickelt, sie wurde mehrmals abgeworfen, und dann hat die Menschheit die Forschung und Entwicklung im Bereich der Nuklear­technologie substanziell und massiv global eingeschränkt und reguliert, um noch Schlimmeres zu verhindern, obwohl es dagegen massiven Widerstand gab. Diese Unterbindung ist weitestgehend gelungen – dank eines inter­natio­nalen Regimes, konkreter Durchsetzungs­mecha­nismen und der Inter­nationalen Atom­energie­behörde (IAEA) bei der UN.

Literatur

Referenzen

[1] Catherine Clifford, «Elon Musk: ‹Mark my words – A.I. is far more dangerous than nukes›», CNBC News, 13.  März 2018.

[2] Arjun Kharpal, «Stephen Hawking says A.I. could be ‹worst event in the history of our civilization›», CNBC News, 6. November 2017.

[3] Für eine vertiefte Betrachtung: Peter G. Kirchschläger, Digital Transformation and Ethics. Ethical Considera­tions on the Robotization and Automatization of Society and Economy and the Use of Artificial Intelligence, Nomos-Verlag, 2021.

[4] Peter G. Kirchschläger, «The correlation between ethics and technology», in Giulia Isetti, Elisa Innerhofer, Harald Pechlaner, Michael de Rachewiltz (Hrsg.), Religion in the Age of Digitalization. From New Media to Spiritual Machines, Routledge, 2020, S. 165–180.

[5] Spyros G. Tzafestas, Roboethics. A Navigating Overview, Springer, 2016, S. 25.

[6] Kirchschläger, Digital Transformation and Ethics.

[7] Immanuel Kant, Grundlegung zur Metaphysik der Sitten. Werkausgabe Weischedel. Vol. 7., Suhrkamp, 1974.

[9] Peter G. Kirchschläger, Automatisierung von Mobilität – theologisch-ethische Überlegungen, Fein-schwarz, 13. Januar 2017.

[10] Vgl. Wendell Wallach, Colin Allen, Moral Machines. Teaching Robots Right From Wrong, Oxford University Press, 2009.

[11] Vgl. Isaac Asimov, Meine Freunde, die Roboter (Bibliothek der Science Fiction Literatur 20), Sonderausgabe, Heyne Verlag, 1982, S. 67.

[12] Aristoteles, Nikomachische Ethik, 4. Aufl., Felix Meiner Verlag, 1985, S. V, 14, 26.

[13] Günter Virt, Damit Menschsein Zukunft hat. Theologische Ethik im Einsatz für eine humane Gesellschaft, Echter Verlag, 2007, S. 42–43.

[15] Vgl. Axhausen, Kay W. (2016), Autonome Fahrzeuge. Erste Überlegungen. Vortrag am 5. September 2016 im Rahmen der Sommerakademie der Schweizerischen Studienstiftung zum Thema Automatisierung der Mobilität, Magliaso.

Autor
Prof. Dr. theol. lic. phil. Peter G. Kirchschläger

ist o. Professor für Theologische Ethik und Leiter des Instituts für Sozialethik ISE.

  • Universität Luzern, 6002 Luzern

Kommentare

Bitte rechnen Sie 4 plus 4.