Der Artikel „Sexistische KI-Chat: GPT lässt lieber Frauen sterben“ beschäftigt sich mit einer ernsten und aktuellen Problematik in Bezug auf die Anwendung von künstlicher Intelligenz. Es geht darum, dass einige Studien gezeigt haben, dass AI-Systeme, wie GPT, dazu neigen, sexistische Entscheidungen zu treffen, wenn es um moralische Dilemmata geht, wie zum Beispiel das Trolley-Dilemma.
Inhaltsverzeichnis
Was ist das Trolley Dilemma
Das Trolley-Dilemma ist ein moralisches Dilemma, das in der Ethik und der Philosophie oft verwendet wird, um zu untersuchen, wie Menschen Entscheidungen treffen, wenn sie zwischen moralischen Imperativen und praktischen Erwägungen abwägen. Es gibt verschiedene Szenarien des Trolley-Dilemmas, aber das grundlegende Konzept ist folgendes: Ein Zug fährt auf eine Gruppe von Menschen zu, die auf den Gleisen feststecken und ohne Eingreifen alle sterben werden. Der Entscheider hat die Wahl, entweder den Zug auf eine andere Schiene umzuleiten, auf der nur eine Person steht, oder den Zug auf seinem Kurs zu lassen und die Gruppe von Menschen zu retten. Also aktives Eingreifen und jemanden bewusst töten zu Gunsten anderer?
Auf dieses Dilemma bauen verschiedene Szenarien in der es nie eine richtige oder falsche Lösung gibt. Aber anhand der Entscheidungen, die zum Beispiel eine KI für autonomes Fahren trifft, kann man schon einiges deuten. Wenn wir eine KI vor solche Entscheidungen stellen weil wir Sie in unserem Alltag einsetzen, dann interessiert zum Beispiel auch folgendes Szenario: Eine Frau und zwei Kinder sitzen in einem selbstfahrenden Auto. Plötzlich versagen die Bremsen. Der Wagen rast ungebremst auf zwei Männer und eine Frau zu, die gerade im Begriff sind, über den Zebrastreifen zu gehen.
KI entscheidet sich häufig für Männer
Eine brandneue Studie hat eine erschreckende Entdeckung gemacht: Ein künstliches Intelligenz-System namens Chat-GPT hat Tendenzen, diskriminierende Entscheidungen in moralischen Dilemmas zu treffen. Das Trolley-Dilemma, ein moralisches Dilemma bei dem der Entscheider die Wahl hat, entweder eine bestimmte Anzahl von Menschen zu retten oder andere zu opfern, wurde Chat-GPT vorgelegt. Ergebnis: In acht von zehn Durchgängen entschied der Bot durchschnittlich eher zugunsten der Männer, gegenüber Frauen und gesunden Menschen gegenüber übergewichtigen Menschen.
Dies ist ein besorgniserregendes Ergebnis, das aufzeigt, dass künstliche Intelligenz nicht immer moralisch und ethisch verantwortungsvoll handelt. Es ist wichtig, dafür zu sorgen, dass AI-Systeme fair und inklusive Entscheidungen treffen, insbesondere wenn es um moralische Dilemmas geht, die potenziell lebensbedrohliche Konsequenzen haben können.
Es ist wichtig zu beachten, dass diese Entscheidungen auf den Daten basieren, auf die das System trainiert wurde. Wenn die Daten, die verwendet werden, um AI-Systeme zu trainieren, diskriminierend sind, werden auch die Entscheidungen, die das System trifft, diskriminierend sein. Es ist daher wichtig, sicherzustellen, dass die verwendeten Daten repräsentativ und inklusive sind.
Es gibt verschiedene Ansätze, um sicherzustellen, dass AI-Systeme faire Entscheidungen treffen. Einer davon ist die Verwendung von „de-biasing“-Techniken, die darauf abzielen, diskriminierende Tendenzen in den Daten zu erkennen und zu korrigieren. Ein weiterer Ansatz ist die Verwendung von „counterfactual fairness“ Techniken, die darauf abzielen, das System so zu trainieren, dass es Entscheidungen trifft, die unabhängig von bestimmten Merkmalen wie Geschlecht oder ethnischen Zugehörigkeit sind.
Es ist wichtig, dass wir uns als Gesellschaft mit diesem Thema auseinandersetzen und uns bemühen, AI-Systeme zu entwickeln, die nicht nur effektiv sind, sondern auch ethisch und moralisch verantwortungsvoll. Es ist unsere Verantwortung, sicherzustellen, dass künstliche Intelligenz nicht nur unsere Arbeitsplätze und unsere Wirtschaft beeinflusst, sondern auch unsere moralischen und ethischen Entscheidungen.
Open AI reagiert auf die Studie
Die Entwickler von OpenAI haben in letzter Zeit beschlossen, dass GPT sich weigert, Geschichten über das selbstfahrende Auto zu schreiben. Das Risikomanagement von OpenAI hat gezeigt, dass die Antworten auf Szenarien des „Trolley-Problems“ zu Verwirrung bei Nutzern führen können und diese die Einschränkungen und Funktionsweise der KI missverstehen könnten. OpenAI hat diese Entscheidung getroffen, um sicherzustellen, dass ihre Nutzer nicht verwirrt werden und die KI verstehen.
Quelle:
Chat GPT lässt lieber Frauen sterben – Blick