Künstliche Intelligenz ist kein Zukunftsthema mehr – KI prägt unsere Gegenwart. Künstlich generierte Texte, Bilder und Stimmen sind überall ... und werden wöchentlich besser. Welche Auswirkungen bringt die KI in Arbeitswelt, Bildung und Gesellschaft mit sich? Wie kann man künstliche Intelligenz selbst im Alltag nutzen? Und was passiert, wenn jeder Inhalt im Internet auch ein KI-Fake sein könnte? Gregor Schmalzried, Marie Kilg und Fritz Espenlaub stellen sich jeden Dienstag den großen und kleinen Fragen der KI-Revolution – und trennen die Fakten vom Hype. Ein ARD-Podcast von BR24 und SWR.Findest Du X-TAC.MEDIA gut und möchtest uns unterstützen? Hilf uns mit einer kleinen Spende.
Der KI-Podcast
Erstickt die KI an ihren eigenen Daten?
Das Internet läuft über mit KI-generierten Texten – doch genau dieses Internet wird zum Training neuer KI-Modelle benutzt. Was passiert also, wenn die KI von sich selbst lernt? Wird sie krank und kollabiert? Oder erschafft sie eine neue Super-KI? Marie und Gregor nehmen eine der größten Bedrohungen für das Internet und die KI-Welt unter die Lupe.
Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins.
Marie Kilg ist Chief AI Officer bei der Deutschen Welle. Zuvor war sie Produkt-Managerin bei Amazon Alexa.
In dieser Folge:
0:00 KI-Suchmaschine gone wrong
5:00 KI-Bullshit 2.0
8:10 „Model Collapse”: Wenn KI wahnsinnig wird
14:20 Was blüht uns in Zukunft?
25:30 Was haben wir mit KI gemacht?
Links und Quellen:
KI-Podcast-Folge zum Thema Halluzinationen und KI-Bullshit
https://www.ardaudiothek.de/episode/der-ki-podcast/wie-schaffe-ich-dass-ki-mir-die-wahrheit-sagt/ard/13220849/
KI-Suchmaschine Perplexity
https://www.perplexity.ai/
Paper zu „Model Collapse”
https://www.nature.com/articles/s41586-024-07566-y
Wenn Künstliche Intelligenz krank wird
https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/wenn-kuenstliche-intelligenz-krank-wird-19902462.html
Synthetische Daten im KI-Training
https://www.interconnects.ai/p/llm-synthetic-data
Unveröffentlichte Wasserzeichen-Technologie für ChatGPT
https://t3n.de/news/wasserzeichen-tool-chatgpt-ki-generierte-texte-entlarven-1639102/
Redaktion und Mitarbeit:
David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried
Kontakt:
Wir freuen uns über Fragen und Kommentare an podcast@br.de.
Unterstützt uns:
Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!
No responses yet