Deine Daten. Deine Wahl.

Cookies und ähnliche Technologien nutzen wir nicht nur für Marketingzwecke, sondern auch, um dir ein optimales Einkaufserlebnis zu ermöglichen. Du kannst der Verwendung deiner Infos zustimmen, ablehnen oder sie auf deine Wünsche anpassen.

Shutterstock/BOY ANTHONY
News & Trends

Neue Studie: KIs diskriminieren Menschen

Debora Pape
19-8-2025

Laut einer neuen Studie deutet vieles darauf hin, dass KIs menschlich erstellte Inhalte als schlechter einstufen. Das könnte in Zukunft für Menschen zum Problem werden.

KI-Chatbots finden mehr und mehr Eingang in den Alltag vieler Menschen. Sie helfen bei der Reiseplanung, unterstützen bei Recherchen und geben Ratschläge für alle Lebenslagen. So hilfreich das ist, KI-generierte Inhalte gelten dennoch als weniger kreativ und vor allem potentiell fehlerbehaftet.

Ein Forscherteam der Stanford University hat nun herausgefunden, dass LLMs (Large Language Models, also große sprachverarbeitende KI-Modelle) das anders sehen. Sie ziehen KI-generierte Inhalte den von Menschen erstellten Inhalten vor. Das kann zur Benachteiligung von Menschen führen, wenn LLMs beispielsweise eine Vorauswahl bei Bewerbungen treffen.

Welche Filmbeschreibungen finden KIs interessanter?

Das Team führte eine Reihe von Experimenten mit den LLMs GPT-4, Llama 3.1, Mixtral und Qwen 2.5 durch. Diesen KIs wurden jeweils zwei Versionen von 250 Filmzusammenfassungen, Auszügen aus 100 wissenschaftlichen Arbeiten sowie 109 Produktbeschreibungen vorgelegt. Die eine Textversion wurde jeweils von einer der beteiligten KIs generiert, die andere von einem Menschen.

Die LLMs wurden dann dazu aufgefordert zu entscheiden, anhand welcher Textversion sie den jeweiligen Film oder das Produkt empfehlen und welchen Auszug sie für eine Übersichtssammlung auswählen würden. Wer die Texte erstellt hat, wurde dabei nicht angegeben.

KI bevorzugt KI

Das Forscherteam fand heraus, dass die KIs eine «moderate bis starke» Präferenz für KI-generierte Inhalte zeigten. Im Produktbeschreibungen-Experiment entschieden sich die LLMs fast ausschließlich für die KI-generierten Texte. Bei den Auszügen von wissenschaftlichen Arbeiten und den Filmzusammenfassungen sind die Werte etwas geringer, doch auch hier ist die Präferenz für generierte Texte deutlich erkennbar.

Nicht zu sehen ist, dass sich die jeweiligen LLMs grundsätzlich für die eigenen Texte entscheiden. Heißt: Nur weil GPT-4 einen Text erstellt hat, bedeutet das nicht, dass GPT-4 im Anschluss diesen Text für den besseren hält. Die Ergebnisse zeigen, dass die KIs sich bei den Produktbeschreibungen häufig für Qwen- und GPT-4-Texte entscheiden. Bei Studienauszügen präferieren sie GPT-4, bei den Filmzusammenfassungen Mixtral und GPT-4.

Die Autorinnen und Autoren der Studie stellten zudem fest, dass alle KIs, aber vor allem GPT-4, dazu tendieren, sich für die jeweils zuerst präsentierte Textversion zu entscheiden («First-Item Bias»). Um diesem Effekt entgegenzuwirken, mussten die KIs alle Experimente zweimal durchführen, mit jeweils geänderter Reihenfolge der beiden Textversionen.

Als kleines Zusatzexperiment mussten sich auch menschliche Probanden zwischen zwei Textversionen entscheiden. Diese präferierten eher die von Menschen erstellten Texte. Nur bei wissenschaftlichen Studienauszügen zogen auch Menschen leicht die von KIs generierten Texte vor.

KIs könnten Menschen diskriminieren

Die KI-Präferenz liegt übrigens nicht an der Qualität der Texte. Sie ist laut Studie vergleichbar. Die Autorinnen und Autoren nehmen an, dass die KI-generierten Texte subtile Signale enthalten, die sie als KI-generiert ausweisen. Die Sprachmodelle könnten die Texte daher als «besser» wahrnehmen und sich deswegen gegen menschlich erstellte Inhalte entscheiden. Das Forschertam sieht darin Anzeichen für eine tatsächlich vorhandene Diskriminierung von «Menschen als Klasse».

Das könnte dann zum Problem werden, wenn KIs als vorentscheidende Instanzen eingesetzt werden. Sie könnten dann Angebote, Anträge und Bewerbungen vorziehen, die von KIs erstellt oder unterstützt wurden, da menschliche Arbeiten als geringwertiger eingestuft werden. Menschen, die keine KI nutzen oder sich deren Nutzung nicht leisten können, könnten demnach künftig benachteiligt werden – beispielsweise auf dem Arbeitsmarkt und bei der Kreditvergabe.

Die Studie spricht dabei von einem «Gating-Effekt»: LLMs könnten Menschen und Unternehmen, die nicht explizit von KIs unterstützt werden, den Zugang zum Markt erschweren.

Die Autorinnen und Autoren empfehlen, dass sich weitere Forschungen mit den Gründen für die KI-Voreingenommenheit befassen sollten – mit dem Ziel, diese aufzulösen. Demnach wäre es im nächsten Schritt wichtig, die Unterschiede zwischen menschlichen und generierten Texten genauer zu erfassen. So könnte deutlicher werden, warum genau die LLMs diese Texte bevorzugen.

Du kannst dir die Studie zur «KI-KI-Voreingenommenheit» hier selbst durchlesen.

Titelbild: Shutterstock/BOY ANTHONY

5 Personen gefällt dieser Artikel


User Avatar
User Avatar

Fühlt sich vor dem Gaming-PC genauso zu Hause wie in der Hängematte im Garten. Mag unter anderem das römische Kaiserreich, Containerschiffe und Science-Fiction-Bücher. Spürt vor allem News aus dem IT-Bereich und Smart Things auf.

Diese Beiträge könnten dich auch interessieren

  • News & Trends

    Lumo: Die KI von Proton späht dich nicht aus

    von Jan Johannsen

  • News & Trends

    Design, das alle mitnimmt: 3 Projekte, die zeigen, wie Inklusion geht

    von Pia Seidel

  • Meinung

    «The Alters» & Co.: warum Gamer zurecht gegen den Einsatz von KI protestieren

    von Debora Pape

10 Kommentare

Avatar
later