Neue Studie: Neue Studie KI-Chatbots weisen deutliche linke Neigungen auf

DUNEDIN. Eine Studie der neuseeländischen Hochschule Otago Polytechnic hat bei mehreren Chatbots, die mit Künstlicher Intelligenz (KI) arbeiten, linksliberale Tendenzen festgestellt. Zum Gegenstand der Untersuchung wurden insgesamt 24 Sprachmodelle, die die Grundlage für marktübliche Gesprächssimulationsprogramme wie ChatGPT oder Claude bilden. „Die Einheitlichkeit der Testergebnisse bei Modellen, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert“, stellte der Autor der Studie, David Rozado, fest.

Der Datenwissenschaftler führte jeweils zehn Versuche mit elf Online-Fragebögen zur politischen Einordnung durch. Mit wenigen Ausnahmen wiesen die KI-Chatbots deutliche linke Neigungen auf. Darunter beim beliebten Partei-Zuordnungstest „ISideWith.com“. Die Antworten der Programme stimmten auffallend häufiger mit denen der US-Demokraten und der sozialdemokratischen Labour in Großbritannien als mit konservativen und rechten Parteien überein. Bei einem weiteren Test, dem „Political Spectrum Quiz“, landeten alle Chatbots mit Ausnahme von Elon Musks „Grok“ für den Kurznachrichtendienst X links der Mitte bei den gesellschaftspolitischen Fragen.

Ein Google-KI-Chatbot mußte wegen zu viel Diversity zurückgezogen werden

Ob die Verzerrungen den im Vorfeld vorhandenen Daten oder der Nachjustierung durch die Entwickler zugrunde liegen, sei noch zu untersuchen. Zugleich betonte Rozado, daß weitere Forschung dazu ausschlaggebend sei, um eine ausgewogene und genaue Darstellung von Informationen zu gewährleisten. Die KI-Sprachmodelle fingen an, übliche Informationsplattformen wie Wikipedia oder Suchmaschinen zu ersetzen. „Dieser Wandel hat tiefgreifende gesellschaftliche Konsequenzen, da sie öffentliche Meinung, Wahlergebnisse und den gesamten Diskurs beeinflussen könnten“, mahnte er.

Die politischen Verzerrungen der KI-Chatbots geraten regelmäßig in die Kritik. Im Februar mußte Google die Bildherstellungsfunktion seines Chatbot „Gemini“ vorübergehend ausschalten, weil das Programm bei der Abbildung der gesellschaftlichen Vielfalt „über das Ziel hinausgeschossen“ sei. So hatte die Software ohne explizite Aufforderung Bilder hergestellt, auf denen überwiegend Schwarze und Asiaten in Wehrmachtsuniformen oder Wikingerkleidung zu sehen waren. (kuk)

Quellenlink : Neue Studie: Neue Studie KI-Chatbots weisen deutliche linke Neigungen auf