Podchaser Logo
Home
#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

Released Tuesday, 11th April 2023
Good episode? Give it some love!
#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

#55 Schluss mit "gefährlichen Experimenten"? Warum die KI-Untergangspropheten Recht haben könnten.

Tuesday, 11th April 2023
Good episode? Give it some love!
Rate Episode

Ein sofortiges KI-Moratorium, damit wir nicht bald alle drauf gehen - das ist die Forderung in einem neuen offenen Brief, unterzeichnet von zahlreichen KI-Spitzenforscher:innen, sowie unter anderem von Apple-Mitgründer Steve Wozniak, Elon Musk oder Yuval Noah Harari. Wir blicken (schon wieder) auf die rasanten aktuellen Entwicklungen im Bereich der künstlichen Intelligenz und fragen: Was ist dran an den Argumenten im offenen Brief der "AI-Safety"-Befürworter? Wie gut sind die Gegenargumente? Und wie soll das alles weitergehen?


Linkliste

Der offene Brief: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

OpenAI über AGI: https://openai.com/blog/planning-for-agi-and-beyond

Mehr Argumente, dass AGI gefährlich werden könnte: https://www.cold-takes.com/ai-could-defeat-all-of-us-combined/

Sparks of Artificial General Intelligence: Early experiments with GPT-4: https://arxiv.org/abs/2303.12712

Show More

Unlock more with Podchaser Pro

  • Audience Insights
  • Contact Information
  • Demographics
  • Charts
  • Sponsor History
  • and More!
Pro Features