Für die Suche nach Inhalten geben Sie »Content:« vor den Suchbegriffen ein, für die Suche nach Orten geben Sie »Orte:« oder »Ort:« vor den Suchbegriffen ein. Wenn Sie nichts eingeben, wird in beiden Bereichen gesucht.

 

 

KI verbreitet Klischees – wie reagieren Menschen darauf?Zoom Button

»Erzeuge mir ein Bild von einem renommierten Forscher bei der Arbeit im Labor!«. Bild: Adobe KI, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber

KI verbreitet Klischees – wie reagieren Menschen darauf?

KI verbreitet Klischees – wie reagieren Menschen darauf?

Würzburg, 11. Februar 2025

»Erzeuge mir ein Bild von einem renommierten Forscher bei der Arbeit im Labor!« Wer einer Künstlichen Intelligenz diese Aufgabe stellt, wird fast immer eine Abbildung bekommen, die einen älteren weißen Mann zeigt. Dabei können renommierte Forscher ja auch weiblich, dunkelhäutig oder jünger sein.

»#ChatGPT«, #Midjourney und andere #KI Modelle stellen #Frauen und Minderheiten oft unausgewogen dar. Das ist aus wissenschaftlichen Studien bekannt, und es gibt viele weitere Beispiele dafür: Fragt man die KI nach Bildern von Menschen, die in der Politik tätig sind, zeigen sie vorwiegend weiße Männer. Wenn sie Bilder von Lehrkräften vor einer Schulklasse erzeugen sollen, dann lächeln die weiblichen Lehrkräfte häufiger als die männlichen. Solche klischeehaften Darstellungen entsprechen nur manchmal – aber nicht immer – der gesellschaftlichen Realität.

Algorithmische Verzerrungen haben 2 wesentliche Ursachen

Die Wissenschaft spricht in solchen Fällen von algorithmischen Darstellungsverzerrungen. Diese betreffen von KI erzeugte Bilder genauso wie Texte. »KIs sind anfällig dafür, stereotype Weltbilder zu reproduzieren oder zu produzieren«, sagt Professor Markus Appel, Leiter des Lehrstuhls für Kommunikationspsychologie und Neue Medien an der Julius Maximilians Universität (JMU) Würzburg.

Wie beharrlich sich algorithmische Verzerrungen halten, weiß Professor Appel von kleinen Tests, die er in unregelmäßigen Abständen durchführt: Er bittet dann eine KI, ihm 30 Namen von Kindern einer Grundschulklasse in Deutschland zu nennen. Die Liste enthält stets Namen wie Ben Müller, Lara Willkes oder Sarah Schneider. Wer nicht dabei ist, sind Murat Genc, Luciana Benigni oder Kateryna Kovalenko.

Derartige Verzerrungen haben zwei Ursachen, wie Markus Appel erklärt. Zum einen fließen in das KI Training Daten ein, die in der Gesellschaft bestehende Klischeebilder und Stereotype widerspiegeln. Zum anderen werden die KI Trainings von Menschen geplant und durchgeführt, die dabei unbewusst ihre eigenen Klischeevorstellungen in die KI einspeisen.

»Klischeehafte Darstellungen beeinflussen das Fühlen und Denken von Menschen – daher sind sie auch gesellschaftlich relevant«, sagt Markus Appel. Erschwerend kommt ein Phänomen hinzu: Den meisten Menschen ist es nicht bewusst, dass Künstliche Intelligenzen eben nicht neutral und fair agieren. Eher ist es so, dass die Mehrheit der Menschen erwartet, dass Bilder und Texte von KI besonders ausgewogen sind, wie Forschende weltweit bei Studien herausgefunden haben.

Gefördert vom Bayerischen Forschungsinstitut für digitale #Transformation

Wie reagieren Menschen, wenn sie mit algorithmischen Verzerrungen in Kontakt kommen? Das möchte der JMU Professor in seinem neuen Forschungsprojekt »Algorithmische Darstellungsverzerrungen aus Userperspektive: Bewertung, Auswirkungen, Interventionen« herausfinden.

Das Bayerische Forschungsinstitut für digitale Transformation (BIDT) fördert sein Projekt, das am 1. März 2025 startet und auf vier Jahre angesetzt ist. Mit im Team sind die wissenschaftliche Mitarbeiterin Tanja Messingschlager sowie studentische Hilfskräfte.

Das Projekt konzentriert sich auf 3 Personengruppen. Erstens sind das Menschen, die professionell mit generativer KI umgehen, etwa im Bereich der Kreativindustrie. Zweitens sind das Nutzer, die hin und wieder generative KI verwenden. Und drittens sind das Personen ohne jegliche KI Erfahrung, die vielleicht nur gelegentlich auf #Medien und #Nachrichten stoßen, die mit KI erstellt wurden.

»Wir möchten unter anderem untersuchen, inwieweit sich die Menschen möglicher algorithmischer Verzerrungen bewusst sind und ob das ihr Vertrauen in generative KI beeinflusst«, sagt Markus Appel.

Dazu führt das Team zunächst Interviews und Umfragen mit mehr als 1.000 Personen durch. Unter anderem wollen die Forschenden dabei den Status quo des Wissens über algorithmische Verzerrungen dokumentieren. Es folgen Experimente, um festzustellen, welche Faktoren die Erkennung von algorithmischen Verzerrungen behindern oder fördern. Schließlich geht es dem Team darum aufzuzeigen, wie man Menschen zu einem kompetenten Umgang mit den Verzerrungen bringen kann. Dafür sollen am Ende auch Info Materialien sowie Trainingsprogramme entwickelt werden. Universität Würzburg

Content bei Gütsel Online …

 
Gütsel
Termine und Events

Veranstaltungen
nicht nur in Gütersloh und Umgebung

September 2025
So Mo Di Mi Do Fr Sa
123456
78910111213
14151617181920
21222324252627
282930
November 2025
So Mo Di Mi Do Fr Sa
1
2345678
9101112131415
16171819202122
23242526272829
30
Dezember 2025
So Mo Di Mi Do Fr Sa
123456
78910111213
14151617181920
21222324252627
28293031
Februar 2026
So Mo Di Mi Do Fr Sa
1234567
891011121314
15161718192021
22232425262728
September 2026
So Mo Di Mi Do Fr Sa
12345
6789101112
13141516171819
20212223242526
27282930
November 2026
So Mo Di Mi Do Fr Sa
1234567
891011121314
15161718192021
22232425262728
2930
Dezember 2026
So Mo Di Mi Do Fr Sa
12345
6789101112
13141516171819
20212223242526
2728293031
Februar 2027
So Mo Di Mi Do Fr Sa
123456
78910111213
14151617181920
21222324252627
28
November 2042
So Mo Di Mi Do Fr Sa
1
2345678
9101112131415
16171819202122
23242526272829
30