Maschinelle Lernverfahren haben mittlerweile einen festen Platz in unserer Gesellschaft: Ob bei der Bewerber*innenauswahl, medizinischen Behandlungsempfehlung oder Kreditwürdigkeitsprüfung, ob Alexa, ChatGPT oder Google. Allen Vorteilen zum Trotz handelt der Algorithmus dabei oft unfair oder diskriminierend. Bestimmte Personengruppen sind dabei auf Grund von sensitiven Merkmalen (bspw. Race, Gender) meistens überproportional häufig betroffen. Klara Krieg zeigt auf, wie sich unsere internalisierten Stereotype und Vorurteile in KI-basierten Systemen wiederfinden können und was das für uns Frauen im Tech Bereich und nachfolgende Generationen bedeuten kann. Der Vortrag eignet sich für non-Techies, Techies und alle Interessierten!
Call for Speakers
Du möchtest selbst gerne einen #PowerLunch, einen Workshop oder einen Vortrag mit uns gemeinsam veranstalten?
Du möchtest informiert werden?
Wir schicken dir gerne per Mail Benachrichtigungen über neue Beiträge und Event-Einladungen. Dafür brauchen wir lediglich deine Erlaubnis, dir unseren Newsletter per Email senden zu dürfen.
Jetzt eintragen