AI ohne Bias? Warum ausgewogenen und saubere Daten so wichtig sind | Elisabeth l‘Orange
Manage episode 455031800 series 3556338
Hast du dich schon mal gewundert, dass eine KI ein seltsames Ergebnis geliefert hat? Lag es vielleicht nicht am Prompt, sondern an den Daten dahinter? Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Elisabeth l’Orange Gründerin und CCO bei Oxolo.
Die CEOs auf GenAI Bildern – Nur Männer. Die Krankenschwestern – Nur Frauen. Und dann rennt die Braut im generierten Video zum Altar wie ein Businesstyp der über den Flughafen sprintet. Der IQ in einem Land ist angeblich deutlich niedriger als bei den Nachbarn?
Wirkt seltsam im ersten Moment, aber nur wenn man KI mal wieder magische Fähigkeiten unterstellt. Denn oft werden die Ergebnisse klar, wenn wir einen Blick in die Daten wagen, mit denen die KI Modelle trainiert wurden.
Maschinelles Lernen funktioniert auf Basis von Mathematik und eben nicht Magie. Und so kommt es, dass alle Verzerrungen oder Ungleichheiten, die wir im Training dem System beibringen sich in den Ergebnissen widerspiegeln.
Bei einigen Bereichen mag dies kritischer sein als bei anderen. Manchmal verstößt es gegen unsere Werte in der Gesellschaft, manchmal aber hängen auch direkt Menschenleben daran. Zum Beispiel in medizinischen Modellen, die ernste Krankheiten frühzeitig erkennen können.
Je genauer diese Modelle auf unsere spezifischen Gegebenheiten angepasst werden, desto besser die Ergebnisse.
So wird das Rennen um die KI auch ein Rennen um die Daten.
Denn es ist gar nicht so leichte gute und saubere Daten zu bekommen. Wer hier jetzt die Nase vorne hat kann auch im Rennen mit KI sicher punkten.
Doch wie kommen wir dann jetzt zu besseren Ergebnissen und Guardrails, die dafür sorgen, dass die Systeme entsprechend verantwortungsvoll trainiert und eingesetzt werden?
▬▬▬▬▬▬ Profile: ▬▬▬▬
Zum LinkedIn-Profil von Elisabeth: https://www.linkedin.com/in/lislorange/
Zu Tech & Tales: https://www.talespod.com/
Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/
Christians Wonderlink: https://wonderl.ink/@christiankrug
Unf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data
▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬
Buchempfehlung von Elisabeth: Lean In - Sheryl Sandberg
Alle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata
▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬
Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfa
Zum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019
Zum Podcast auf Deezer: https://deezer.page.link/FnT5kRSjf2k54iib6
Zum Podcast auf Youtube: https://www.youtube.com/@unfckyourdata
▬▬▬▬▬▬ Merch: ▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
https://unfckyourdata-shop.de/
▬▬▬▬▬▬ Kontakt: ▬▬▬▬
E-Mail: christian@uyd-podcast.com
▬▬▬▬▬▬ Timestamps: ▬▬▬▬▬▬▬▬▬▬▬▬▬
00:00 Einführung in die Welt der KI und Daten
05:06 Die Herausforderungen von Bias in KI-Daten
09:49 Die Bedeutung von Datenqualität und Diversität
14:51 Die Rolle von Human-in-the-Loop in KI-Modellen
20:12 Die ethischen Implikationen von KI und Bias
22:02 Regulatorische Herausforderungen in der KI-Entwicklung
25:18 Die Rolle von Bias in KI-Modellen
30:24 Gesellschaftliche Verantwortung und regionale Unterschiede
34:10 Die Notwendigkeit staatlicher Intervention in der KI
39:51 Kritische Anwendungen von KI in der Gesellschaft
44:04 Die Bedeutung von Zweitmeinungen in der Medizin
47:25 Früherkennung und KI in der Diagnostik
50:14 Bias in medizinischen Studien und deren Auswirkungen
53:52 Verantwortungsvoller Umgang mit Daten und KI
01:00:36 Persönliche Einblicke und Buchempfehlungen
99 episod