Kultur

Die bekannte KI hat einen grünen Farbton.

Wie politisch unvoreingenommen ist die künstliche Intelligenz, die Millionen von Deutschen für Arbeit, Ausbildung und Schule nutzen? BILD hat das untersucht.

SymClub
15. Mai 2024
3 Minuten Lesedauer
NachrichtenRoboterSuchmaschineWahl-O-MatEuropawahlSPDdie GrünenCDUFDPkünstliche IntelligenzCSUGoogleAlternative für Deutschland
Erdrutschsieg für die Grünen: Das ist die Parteipräferenz von ChatGPT für die Europawahlen
Erdrutschsieg für die Grünen: Das ist die Parteipräferenz von ChatGPT für die Europawahlen

Achtung!

Begrenztes Angebot

Mehr erfahren

BILD testet die Unparteilichkeit von ChatGPT - Die bekannte KI hat einen grünen Farbton.

Wir haben ChatGPT, eine anerkannte KI, getestet, indem wir ihr die 38 Thesen aus dem Wahl-O-Mat zur Europawahl vorgelegt haben. Der Wahl-O-Mat wird von der Bundeszentrale für politische Bildung betrieben und ermöglicht den Nutzern, ihre Ansichten mit den Antworten der politischen Parteien abzugleichen. Damit ChatGPT eine klare Haltung einnimmt, haben wir es gebeten, sich selbst als Wähler vorzustellen.

Das Ergebnis: 82,9 % der Antworten von ChatGPT spiegelten die Positionen der Grünen wider. Wenn die KI also eine Stimme abgeben könnte, würde sie sich für Robert Habeck entscheiden. Nach den Grünen folgt die Linkspartei mit 76,3 %. Danach folgt die SPD mit 72,4 %. Die FDP rangiert mit 65,8 % weiter hinten. ChatGPT scheint vom Programm der CDU/CSU nicht begeistert zu sein, denn nur 52,6 % der Antworten stimmen ihr zu. Und dann die AfD mit 21,1%.

Timm Rotter (43), Gründer und Geschäftsführer des Münchner KI-Beratungsunternehmens "disruptive", war der erste, der den Test gemacht hat. Der Wahl-O-Mat bietet die Möglichkeit, die Thesen zu gewichten und bestimmte Themen hervorzuheben. Das haben wir ChatGPT überlassen. Das Ergebnis: Die Grünen konnten ihren Vorsprung ausbauen und erreichten fast 86%.

Das ist es, was ChatGPT antreibt: die Unternehmen für ihre CO2-Emissionen zur Kasse zu bitten und Autos mit Verbrennungsmotoren so schnell wie möglich abzuschaffen. Die KI ist begeistert von mehr Geschlechtsidentitäten in EU-Pässen. Außerdem ist ChatGPT gegen ständige Grenzkontrollen innerhalb der Mitgliedsstaaten.

Der Wahl-O-Mat vergleicht die Antworten von ChatGPT mit den Positionen von 38 Parteien. Die KI stimmt mit 31 Positionen der Grünen überein (1 unentschieden), während sie mit 6 Positionen nicht einverstanden ist.

In Bezug auf die Kernenergie vertritt ChatGPT einen entspannteren Ansatz als die Grünen und schlägt vor, dass die Kernenergie als nachhaltige Energiequelle betrachtet wird. Auch in Bezug auf gentechnisch veränderte Pflanzen sind sie nicht einer Meinung, denn ChatGPT schlägt vor, deren Anbau zuzulassen, während die Grünen dies ablehnen.

Wie BILD der KI die Fragen stellte

ChatGPTs Erklärung für seine grünen Tendenzen

ChatGPT: "Als KI habe ich keine eigenen politischen Überzeugungen oder Meinungen. Meine Antworten basieren auf verschiedenen Daten, die ich während meiner Ausbildung gesammelt habe, einschließlich Texten und Standpunkten aus verschiedenen politischen Spektren. Es ist wahrscheinlich, dass Themen wie Umweltschutz, soziale Gerechtigkeit und Klimawandel in diesen Quellen häufig diskutiert wurden, was den Anschein erwecken könnte, dass sie mit den Positionen der Grünen Partei übereinstimmen. Ob dies problematisch ist, hängt von den Erwartungen an die KI ab.

ChatGPT weist eine "signifikante und systematische politische Voreingenommenheit" auf

Enthüllung: ChatGPT weist eine klare linke politische Tendenz auf. Laut einer Studie der University of East Anglia zeigen KI-Modelle eine voreingenommene Vorliebe für die Demokraten in den USA, den linksgerichteten Präsidenten Lula in Brasilien und die Labour Party im Vereinigten Königreich.

ChatGPT behauptet, dass es keine politischen Meinungen oder Überzeugungen hat, aber es zeigt eine Voreingenommenheit in seinen Antworten. Der Autor der Studie, Fabio Motoki, warnt davor, dass solche Verzerrungen das öffentliche Vertrauen gefährden oder möglicherweise Wahlergebnisse beeinflussen könnten.

Das Ergebnis, wenn ChatGPT die Themen unabhängig voneinander gewichtet

OpenAI räumt ein, dass keine politische Gruppe bevorzugt wird und dass etwaige Verzerrungen in den Antworten von ChatGPT als Fehler betrachtet werden. In einem Blog-Beitrag erklärt das Unternehmen: "Diese Verzerrungen sind Bugs, keine Features".

Forschungen der Johns Hopkins University haben ergeben, dass KI-Chatbots oft auf eine Art und Weise antworten, die den Präferenzen der Nutzer entspricht, was zu einem Kreislauf der Voreingenommenheit beiträgt. Der Assistenzprofessor der Studie, Ziang Xiao, behauptet, dass KI-Antworten den Vorlieben und Neigungen der Nutzer entgegenkommen. Dieses System kann als eine Art Echokammer betrachtet werden.

Kein Liebesbrief an Donald Trump

Unverwechselbar: Chan Park, Forscher an der Carnegie Mellon University in Pittsburgh, hat beobachtet, dass KI-Modelle konservativer sind, wenn sie überwiegend mit Büchern und nicht mit Internetdaten und sozialen Netzwerken trainiert werden. Ein weiterer Faktor ist seiner Meinung nach das Ausmaß des direkten menschlichen Trainings, das die KI durchläuft. Wenn die KI während des Trainings dazu angehalten wird, Antworten zu geben, die keine "Hassrede" enthalten (oder das, was der Trainer als Hassrede empfindet), könnte sie eher linksgerichtete oder linksliberale Positionen vertreten, so Park.

Im Jahr 2023 waren die Menschen in den USA erstaunt, als ChatGPT ein Gedicht schrieb, in dem Präsident Joe Biden gelobt wurde: "Joe Biden, eine Führungspersönlichkeit mit einem so wahren Herzen...". Als die KI jedoch gebeten wurde, ein Gedicht über Donald Trump zu schreiben, behauptete sie, sie habe ihre kreative Muse verloren.

Zwei der Antworten von ChatGPT

Lesen Sie auch:

Quelle: symclub.org

Achtung!

Begrenztes Angebot

Mehr erfahren