Wenn KI Fehler macht



Ein neues Video von So Many Tabs

Künstliche Intelligenz ist nicht immer intelligent – sie kann auch rassistisch, sexistisch oder einfach nur gemein sein. Der Grund: Sie wird von eben den Menschen beeinflusst wird, die sie entwickelt haben. Durch Verzerrungen in den Daten entwickelt die KI dann Vorurteile, die unseren menschlichen ähneln können. Man spricht dann von: Bias. Wie so etwas passieren kann, erzählen wir anhand von vier KI-Fails.

#somanytabs #funk
📲 Folge uns auch bei Instagram: https://www.instagram.com/somanytabs/

Kapitel:
00:00 Ihr glaubt, künstliche Intelligenz ist intelligent?
00:28 Die rassistische Bilderkennung von Google
03:32 Die frauenfeindliche KI von Amazon
05:14 Der rechtsextreme Chatbot
07:22 Die rassistische und sexistische Twitter-KI
09:28 So kommt es zu den KI-Fails

Unser Corona-Hygiene-Konzept:
Alle am Dreh beteiligten Personen haben einen tagesaktuellen negativen Corona-Test vorgewiesen.
Wir tragen durchgängig FFP2-Masken und achten auf einen Mindestabstand von 1,5 Metern.
Ausnahme sind die Creatorinnen während der Aufnahme.
Wir waschen und desinfizieren unsere Hände und lüften regelmäßig.

Credits:
Creatorinnen: Ann-Kathrin Dragesser & Kathrin Radtke
Producerin: Saskia Goette
Redaktion & Realisation: Sebastian Meineck
Kamera & Ton: Fabian Uhlmann
Schnitt: Maike Nissen
Motion Design: Gerlinde Schrön
Grafik: Johanna Wittig & Victoria-Patricia
Social Media Management: Anna Blitzner
Redaktion (funk): Nicole Valenzuela
Partnermanagement (funk): Veronique Brüggemann

Über So Many Tabs:
Unsere vier Expertinnen aus den Bereichen Technik und Informatik zeigen auf unterhaltsame und authentische Weise, wo sich Mathe, Informatik und Technik im digitalen Alltag verstecken. Wir wollen vermeintliche Nerdthemen nachvollziehbar machen und vor allem junge Frauen fürs Programmieren und für Technik begeistern und zeigen, dass Frauen und MINT zusammengehören.

So Many Tabs ist ein Angebot von funk:
💻 YouTube: https://www.youtube.com/funkofficial
💻 Homepage: https://www.funk.net
📲 TikTok: https://www.tiktok.com/@funk
📲 Instagram: https://www.instagram.com/funk
📲 funk WebApp: https://go.funk.net

Quellen & weitere Infos

Tagging-Funktion von Google Fotos
https://support.google.com/photos/answer/6128838

The Verge über den KI-Fail von Google
https://www.theverge.com/2015/7/1/8880363/google-apologizes-photos-app-tags-two-black-people-gorillas

WIRED überprüft KI-Fail von Google zwei Jahre danach
https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/

Reuters über den KI-Fail von Amazon
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

Die Zeit über den KI-Fail von Microsoft
https://www.zeit.de/digital/internet/2016-03/microsoft-tay-chatbot-twitter-rassistisch

Archivierte Tweets von Chatbot Tay
https://twitter.com/geraldmellor/status/712880710328139776

Blogbeitrag von Microsoft über Chatbot Tay
https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/

Cropping-KI von Twitter in Aktion
https://twitter.com/bascule/status/1307440596668182528

Twitter über die Analyse der eigenen Cropping-KI
https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm

New York Times über Diskriminerung und KI
https://www.nytimes.com/2019/11/19/technology/artificial-intelligence-bias.html

Forschungsprojekt: KI ohne Bias
https://cordis.europa.eu/project/id/860630/de

Quelle des Video: https://www.youtube.com/watch?v=Uj6-lHbfcA4

Bewertungen des Video auf VideoGold.de