Projekt

Bias In, Bias Out – Wie Technologie diskriminiert

Algorithmische Systeme sind bereits heute ein wesentlicher Bestandteil in unserem Alltag.
Bei Sprachassistenten, Film- und Produktempfehlungen, Jobanzeigen, aber auch in der Kreditvergabe und dem Strafgesetz kommen sie zum Einsatz und übernehmen kleine Aufgaben, aber auch essenzielle Entscheidungen über das Leben von uns Menschen. Während ihre Einsatzbereiche immer mehr werden, verstärken sich dabei auch die Risiken. Ein Hauptaspekt ist hier das Diskriminierungspotenzial, welchem mit wachsender Dringlichkeit entgegengewirkt werden muss. Während das Bewusstsein für die Problematik innerhalb von Expertenkreisen wächst, ist außerhalb dieser jedoch nach wie vor viel Fehl- und Unwissen verbreitet.

Durch die Arbeit „Bias In, Bias Out – Wie Technologie diskriminiert“ soll über Potenzial und Risiko aufgeklärt und zur lösungsorientierten Diskussion angeregt werden.

Entstanden ist das Projekt im Rahmen meiner Bachelorarbeit im Sommersemester 2020 an der FH Aachen.

Designer
Julia Pawlik

Betreuer
Prof. Dipl.-Des. Ilka Helmig
Prof. Dipl.-Des. Eva Vitting