Obtenez 3 mois à 0,99 $/mois + 20 $ de crédit Audible

OFFRE D'UNE DURÉE LIMITÉE
Page de couverture de #40 Die dunkle Seite der KI

#40 Die dunkle Seite der KI

#40 Die dunkle Seite der KI

Écouter gratuitement

Voir les détails du balado

À propos de cet audio

In dieser fesselnden Fortsetzung begrüßen wir, Matúš und Alwine, erneut unseren Gast Jan, dessen letzte Folge alle Rekorde gebrochen hat.

Jan startet mit brandheißen News von OpenAI: Die Restriktionen für ChatGPT werden mit den neuen 5.1-Modellen gelockert, um die KI menschlicher und einfühlsamer zu machen. Das wirft eine kritische Frage auf: Ist es gefährlich, wenn KI für ernste psychologische Probleme genutzt wird, anstatt professionelle Hilfe zu suchen?

Anschließend tauchen wir tief in die Welt der Deepfakes ein, ausgelöst durch das neue, beeindruckend realistische Video-Tool Sora 2 von OpenAI. Es wird immer schwieriger, zwischen echt und fake zu unterscheiden. Wir diskutieren, wie leicht sich Fälschungen, von harmlosen Katzenvideos bis hin zu politischer Desinformation, erstellen und verbreiten lassen.

Ein weiteres schockierendes Thema sind KI-Begleiter wie Replika. Menschen bauen so tiefe emotionale Bindungen zu ihren Avataren auf, dass sie diese sogar heiraten.

Timeline:

00:00 Intro & Rückblick auf die Erfolgs-Folge mit Jan 02:44 News: ChatGPT wird menschlicher 08:39 Ethische Debatte: Darf KI zum Psychologen werden? 13:34 Cashing Feelings: Wenn Menschen Beziehungen mit KI eingehen 18:16 Sora 2 ist da: Die neue Ära der Deepfakes 20:06 Was ist ein Deepfake? Eine Erklärung 32:04 Verantwortung & Lösungen: Wie gehen wir mit der Flut an Fakes um?

🔗 Weiterführende Links zur Folge

- Podcast-Tipp: Caching Feelings von Business Insider - Buch-Tipp: „VIEWS“ von Marc-Uwe Kling - Deepfake-Check: True Media - LinkedIn: Klartext KI - Der Podcast

Pas encore de commentaire