Podchaser Logo
Home
„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

Released Thursday, 29th August 2019
Good episode? Give it some love!
„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

„Algorithmen diskriminieren eher Leute in machtlosen Positionen”

Thursday, 29th August 2019
Good episode? Give it some love!
Rate Episode

Maschinen entscheiden längst über Menschen. Wie verhindern wir, dass sieungerecht urteilen? Regulierung allein helfe kaum, sagt MatthiasSpielkamp von Algorithmwatch.

Zahlreiche Entscheidungen und Einschätzungen werden in unserem Alltagheute bereits von Algorithmen und künstlicher Intelligenz mitgetroffen:Sie sind es, die den Newsfeed auf Facebook sortieren, sie sind es aberauch, die die Plausibilität von Steuererklärungen in Deutschland prüfenoder Jobbewerber vorsortieren. Das klingt zunächst einmal effizient,modern und neutral – bis sich zeigt, dass auch Maschinen Menschendiskriminieren können. Oder eben Entscheidungen treffen sollen, die auchuns Menschen schwerfallen – etwa beim autonomen Fahren.

Wie aber weist man Diskriminierung nach? Warum treffen Algorithmen sooft Entscheidungen, die gar nicht so neutral sind, wie viele es vonComputersystemen erwarten würden? Wie kann man diese Maschinen besserkontrollieren, ihre Entscheidungen im Notfall auch revidieren – und wietreibt man ihnen die Vorurteile wieder aus?

Staaten, aber auch Firmen arbeiten längst an Antworten auf diese Fragen.Pauschale Lösungen gebe es nicht, sagt Matthias Spielkamp von derNichtregierungsorganisation "Algorithmwatch". Was daran liege, dass dieComputersysteme an so unterschiedlichen Stellen eingesetzt würden undganz unterschiedlich funktionierten. Seine Organisation klärt darüberauf, welche Wirkung Algorithmen haben und wo sie zum Einsatz kommen.Spielkamp versuchte, mit seinen Kolleginnen und Kollegen besser zuerforschen, wie die Schufa arbeitet. Und sie berichteten, wie eineSoftware in den Niederlanden Sozialbetrüger aufspüren sollte.

Es gehe darum, Softwaresysteme so einzusetzen, dass das Gemeinwohlgefördert, nicht geschwächt werde, sagt Spielkamp. Doch das sei schwerumzusetzen – unter anderem, weil eben sektorspezifisch auf dieAlgorithmen geschaut werden müsse, statt vermeintlich einfache Lösungenwie einen Algorithmen-TÜV oder politische Regulierungen zu fordern.

[ANZEIGE] Mehr über die Angebote unserer Werbepartnerinnen und -partnerfinden Sie HIER

[ANZEIGE] Falls Sie uns nicht nur hören, sondern auch lesen möchten,testen Sie jetzt 4 Wochen kostenlos Die ZEIT. Hier geht's zum Angebot.

Show More

Unlock more with Podchaser Pro

  • Audience Insights
  • Contact Information
  • Demographics
  • Charts
  • Sponsor History
  • and More!
Pro Features