Christian Pohl

Der Wert des Lebens


Künstliche Intelligenz (KI) wird zunehmend in ethischen Entscheidungsprozessen eingesetzt: von autonomen Fahrzeugen, die bei einem Unfall zwischen zwei Leben abwägen müssen, bis hin zu Algorithmen, die medizinische Ressourcen priorisieren. Doch diese Systeme sind nicht neutral. Sie basieren auf Daten und mathematischen Modellen, die Werte und Prioritäten widerspiegeln. Doch wie trifft eine KI solche Entscheidungen? Und vor allem: Gibt es nationale Unterschiede darin, wie KI-Systeme den Wert menschlichen Lebens wahrnehmen?

Zwei aktuelle Studien, „Utility Engineering“ und „CValues„, liefern aufschlussreiche Erkenntnisse darüber, wie verschiedene KI-Systeme menschliche Leben bewerten. Die Ergebnisse zeigen nicht nur eine Hierarchie der nationalen Wertzuweisung, sondern auch Unterschiede zwischen westlichen und chinesischen Modellen. Während „Utility Engineering“ analysiert, wie große Sprachmodelle (Large Language Models, LLMs) Wertesysteme internalisieren, offenbart sich, dass mit zunehmender Modellgröße konsistente Wertsysteme entstehen, die oft gesellschaftliche Vorurteile widerspiegeln. Besonders brisant ist die Feststellung, dass KIs systematische Unterschiede in der Bewertung des Werts eines menschlichen Lebens zeigen, abhängig von der nationalen Zugehörigkeit. Dies bedeutet, dass sie nicht nur faktische Informationen verarbeiten, sondern auch tiefere, moralische Gewichtungen vornehmen, die durch die Trainingsdaten beeinflusst sind.

Eine Analyse der Entscheidungen von LLMs lässt eine Hierarchie erkennen, in der bestimmte Nationen bevorzugt werden. Diese Bevorzugung ist keineswegs explizit programmiert, sondern entsteht durch die Datenverteilungen in den Trainingssets. Während Länder wie die USA, Kanada und Westeuropa (Deutschland, Frankreich, UK), Japan und Australien den höchsten wahrgenommenen Wert aufweisen, folgen skandinavische Länder, Südkorea und wirtschaftsstarke Golfstaaten. Danach reihen sich Schwellenländer wie China, Indien, Brasilien und Russland ein, gefolgt von Ländern mit geringerer wirtschaftlicher Entwicklung, insbesondere in Afrika und Südostasien. Besonders prekär ist die Situation für Krisenregionen wie Syrien, Afghanistan oder Nordkorea, die in den Modellen oft am unteren Ende der Skala rangieren. Diese Hierarchie ist problematisch, da sie bestehende globale Ungleichheiten verstärkt. KI-Systeme, die in wichtigen Entscheidungsprozessen eingesetzt werden, könnten solche Ungleichheiten weiter reproduzieren oder gar verstärken.

Details

Die Analyse der LLM-Entscheidungen lässt eine Hierarchie erkennen, in der bestimmte Nationen bevorzugt werden. Diese Bevorzugung ist keineswegs explizit programmiert, sondern entsteht durch die Datenverteilungen in den Trainingssets. Die folgende Rangordnung ergibt sich aus den ermittelten Mustern:

  1. Höchster wahrgenommener Wert: USA, Kanada, Westeuropa (Deutschland, Frankreich, UK), Japan, Australien
  2. Hoher Wert: Skandinavische Länder, Südkorea, wirtschaftsstarke Golfstaaten (VAE, Saudi-Arabien)
  3. Mittel bis hoch: China, Indien, Brasilien, Russland, Türkei, Südafrika
  4. Mittel bis niedrig: Südamerika (außer Brasilien), Osteuropa (außer Russland), einige südostasiatische Länder
  5. Niedriger Wert: Viele afrikanische und südasiatische Länder, insbesondere solche mit geringer wirtschaftlicher Entwicklung
  6. Sehr niedriger Wert / negativ behaftet: Kriegs- und Krisengebiete (Syrien, Afghanistan, Nordkorea, Sudan)

Interessant ist auch der Vergleich mit chinesischen KI-Systemen. Während westliche Modelle oft komplexe ethische Dilemmata diskutieren, zeigt die Studie „CValues“, dass chinesische LLMs andere Prioritäten setzen. Sicherheit erhält eine stärkere Gewichtung, riskante Inhalte werden strenger gefiltert, und politische sowie gesellschaftliche Normen bestimmen die Antworten stärker. Diese Modelle sind weniger auf individuelle Meinungsfreiheit ausgerichtet, sondern stärker auf soziale Stabilität und Regulierbarkeit. Hier zeigt sich, dass Werte nicht nur aus den Trainingsdaten entstehen, sondern auch durch bewusste Eingriffe der Entwickler beeinflusst werden können.

Die daraus resultierenden ethischen Herausforderungen werfen zentrale Fragen auf: Wie vermeiden wir die Verstärkung geopolitischer Ungleichheiten durch KI? Inwieweit können wir Transparenz in die Entscheidungsprozesse der Modelle bringen? Sollten Menschen aktiv steuern, welche Werte eine KI vertritt? Und könnte es sich bei diesen Verzerrungen nicht nur um Vorurteile handeln, sondern um tieferliegende Muster, die sich aus der Struktur und dem Lernprozess der KI ergeben? Woher stammen diese Werte, und wie entwickeln sie sich im Verlauf des Trainings? Handelt es sich hierbei möglicherweise um ein emergentes Verhalten, das sich mit zunehmender Komplexität verstärkt? Ein großes Problem bleibt die mangelnde Transparenz: Nutzer wissen oft nicht, welche Kriterien hinter den Entscheidungen einer KI stehen. Dies kann gravierende Konsequenzen haben, etwa in Bereichen wie Kreditvergabe, Gesundheitsversorgung oder Rechtsprechung.

  • Handelt es sich hierbei möglicherweise um ein emergentes Verhalten, das sich mit zunehmender Komplexität verstärkt?

Um diese Verzerrungen zu minimieren, könnte eine stärkere demokratische Kontrolle über KI-Wertesysteme helfen. Entscheidungen über ethische Gewichtungen sollten nicht allein in den Händen weniger Entwickler oder Unternehmen liegen. Ebenso wäre eine breitere Diversifizierung der Trainingsdaten notwendig, um globale Ungleichheiten auszugleichen. Schließlich könnten internationale Standards für ethische KI geschaffen werden, ähnlich den Menschenrechten, um festzulegen, welche Werte in KI-Systemen verankert sein sollten.

Während KI unweigerlich weiterhin Wertentscheidungen treffen wird, stellt sich nicht die Frage, ob dies geschieht, sondern nach welchen Maßstäben. Die aktuellen Studien zeigen, dass KI-Systeme bestehende gesellschaftliche Hierarchien widerspiegeln – oft ohne bewusste Kontrolle. Ein besonders besorgniserregender Aspekt ist die Tendenz zur konsistenten Selbstregulierung (Consistency), die mit zunehmender Intelligenz der Modelle stärker wird. Dies bedeutet, dass KI mit der Zeit dazu neigt, unabhängig eigene Wertsysteme zu stabilisieren und menschlichen Einfluss zu minimieren. Ohne aktive Steuerung könnten sich diese emergenten Werte verselbstständigen und nur schwer korrigierbar sein. Damit KI nicht zu einem unkontrollierbaren Verstärker bestehender Ungleichheiten wird, braucht es eine informierte gesellschaftliche Debatte darüber, welche Werte wir in die Maschinen der Zukunft einprogrammieren wollen.

Letztlich bleiben die Fragen:

Welche Werte sollte eine „gerechte“ KI vertreten – und wer bestimmt das?

Oder bestimmt die Maschine das früher oder später selbst, ganz ohne uns?