Mann mit dunklen Haaren und Bart sitzt vor einem Spiegel und Blickt auf Tablet-Computer mit erhobener Hand. Heller Raum.
Sind KI-Chatbots ein Spiegel unserer eigenen Meinung? Bildrechte: imago/Westend61

Wissen-NewsChatbots wie ChatGPT sagen, was wir hören wollen

15. Mai 2024, 11:13 Uhr

Chatbots wie ChatGPT geben keine neutralen Informationen weiter und orientieren sich an der Meinung der Nutzenden, so eine neue Studie. Das trage zur Polarisierung bei.

ChatGPT als Durchlauferhitzer für Polarisierung: KI-basierte Chatbots sind voreingenommen und können Ideologien verstärken. Das legen Forschende der US-amerikanischen Johns Hopkins-Universität nahe. Das Forschungsteam stellt damit die Annahme infrage, Chatbots seien unparteiisch.

In ihrer Untersuchung mit 272 Teilnehmenden konnten die Forschenden einen sogenannten Echokammer-Effekt nachweisen. Durch die im Gegensatz zu herkömmlichen Suchmaschinen engere Auswahl an Informationen, die Chatbots bieten, würden diese bereits vorhandene Einstellungen der User widerspiegeln. Das hänge damit zusammen, dass Menschen in Chatbots zu einer natürlichen Sprache tendierten, die Chatbots wiederum in ihrer Antwort aufgriffen. So würden etwa bei der Frage nach den Vorteilen von Studiendarlehen nur die Vorteile aufgeführt, statt auch über die Nachteile aufzuklären.

Dem Problem sei allerdings auch nicht mit KI zu begegnen, die darauf programmiert ist, grundsätzlich die entgegengesetzte Meinung zu vertreten. Auch die Bereitstellung von Quelleninformationen durch Chatbots werde wenig genutzt. Das Forschungsteam warnt, dass die Sprache von Nutzenden gegen sie selbst verwendet werden könne, was Missbrauchspotenzial böte.

flo

Dieses Thema im Programm:MDR AKTUELL | 13. Mai 2024 | 09:41 Uhr

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen

Nachrichten

Mehr zum Thema