Artwork

Kandungan disediakan oleh Bayerischer Rundfunk. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Bayerischer Rundfunk atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.
Player FM - Aplikasi Podcast
Pergi ke luar talian dengan aplikasi Player FM !

Wie funktioniert KI eigentlich?

33:27
 
Kongsi
 

Manage episode 420645899 series 3497106
Kandungan disediakan oleh Bayerischer Rundfunk. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Bayerischer Rundfunk atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.
Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen 08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus? 25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Links und Quellen: The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/ Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/ Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552 Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
  continue reading

47 episod

Artwork

Wie funktioniert KI eigentlich?

Der KI-Podcast

94 subscribers

published

iconKongsi
 
Manage episode 420645899 series 3497106
Kandungan disediakan oleh Bayerischer Rundfunk. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Bayerischer Rundfunk atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.
Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert. Über die Hosts: Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft. 00:00 Intro 04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen 08:37 P wie Pre-Trained: Wie läuft das Training ab? 19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus? 25:47 Was haben wir diese Woche mit KI gemacht? Redaktion und Mitarbeit: David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried Links und Quellen: The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/ Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/ Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/ Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552 Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/ Kontakt: Wir freuen uns über Fragen und Kommentare an podcast@br.de. Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
  continue reading

47 episod

Semua episod

×
 
Loading …

Selamat datang ke Player FM

Player FM mengimbas laman-laman web bagi podcast berkualiti tinggi untuk anda nikmati sekarang. Ia merupakan aplikasi podcast terbaik dan berfungsi untuk Android, iPhone, dan web. Daftar untuk melaraskan langganan merentasi peranti.

 

Panduan Rujukan Pantas

Podcast Teratas