Leider ist dieses Programm aus rechtlichen Gründen nicht in dem Land, in dem Sie sich befinden, verfügbar.
Haben Computer Vorurteile?42 - Die Antwort auf fast alles
28 Min.
Verfügbar bis zum 19/05/2025
Sendung vom 21/05/2022
- Untertitel für Gehörlose
Machen wir uns nichts vor: Wir haben Vorurteile. Wer kriegt den Job oder den Kredit? Wer muss wie lange ins Gefängnis? Solche Fragen müssen Menschen beantworten - doch wie können sie dabei sicher sein, rational zu entscheiden? Wäre es da nicht viel klüger, wir würden solche Entscheidungen einer künstlichen Intelligenz überlassen? In vielen Fällen geschieht das bereits ...
Künstliche Intelligenz ist längst unter uns: Im Navi lässt sie uns Staus umfahren, in Dating-Apps die große Liebe finden, sie schlägt uns Produkte oder Filme vor. Aber zunehmend ist KI auch an schwierigeren Entscheidungen beteiligt: In China zum Beispiel kommt sie in Gerichtsprozessen zum Einsatz. Viele Unternehmen lassen Algorithmen Bewerbungen aussortieren. Und Sicherheitsbehörden weltweit benutzen künstliche Intelligenz, um Menschen in Echtzeit zu identifizieren. Unbestechlich und rein objektiv oder voreingenommen? Können wir uns eigentlich sicher sein, dass dabei alles korrekt abläuft, nach unseren moralischen Vorstellungen?
Daran haben Forscherinnen und Forscher erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: „Die KI ist genauso rassistisch wie wir Menschen.“ Das liege an den Daten über Menschen, mit der die KI arbeitet. Die stammen aus der Offline-Welt. Die Diskriminierung, die es dort gibt, ist in die Daten, mit der die KI rechnet, eingeschrieben. Die mathematischen Möglichkeiten, solche Verzerrungen zu korrigieren, sind begrenzt.
Und nicht nur die Daten können ein Problem sein. Katharina Zweig von der TU Kaiserslautern untersucht, inwiefern sich auch durch die Vorgaben der Entwicklerinnen und Entwickler Fehler einschleichen. Ihr Fazit: In vielen Fällen könne die Maschine gar nicht in unserem Sinne gerecht entscheiden. Erwarten wir zu viel von den Computern? Oder können wir ihnen moralisches Handeln beibringen?
Daran haben Forscherinnen und Forscher erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: „Die KI ist genauso rassistisch wie wir Menschen.“ Das liege an den Daten über Menschen, mit der die KI arbeitet. Die stammen aus der Offline-Welt. Die Diskriminierung, die es dort gibt, ist in die Daten, mit der die KI rechnet, eingeschrieben. Die mathematischen Möglichkeiten, solche Verzerrungen zu korrigieren, sind begrenzt.
Und nicht nur die Daten können ein Problem sein. Katharina Zweig von der TU Kaiserslautern untersucht, inwiefern sich auch durch die Vorgaben der Entwicklerinnen und Entwickler Fehler einschleichen. Ihr Fazit: In vielen Fällen könne die Maschine gar nicht in unserem Sinne gerecht entscheiden. Erwarten wir zu viel von den Computern? Oder können wir ihnen moralisches Handeln beibringen?
Regie
Thies Schnack
Land
Deutschland
Jahr
2021
Herkunft
HR
Fluch oder Segen?