If you suspend your transcription on amara.org, please add a timestamp below to indicate how far you progressed! This will help others to resume your work!
Please do not press “publish” on amara.org to save your progress, use “save draft” instead. Only press “publish” when you're done with quality control.
Der Vortrag bietet einen Überblick über die aktuellen Entwicklungen in den Bereichen Künstliche Intelligenz und Maschinelles Lernen. Der Fokus liegt dabei vor allem auf der zumeist unbewussten Beeinflussung von Nutzerinnen und Nutzern durch personalisierte Nachrichtenempfehlungen, fake news sowie Bild-, Audio- und Videomanipulation. Die Forschung zeigt, dass ein Großteil der Nutzerinnen und Nutzer von sozialen Netzwerken wie Facebook sich der Tatsache, dass ihre Nachrichten zunehmend von Algorithmen ausgewählt und eingeschränkt werden, nicht bewusst ist. Wir erkunden, welche Folgen diese gläsernen Echokammern haben und wie leicht sie Nutzerinnen und Nutzer beeinflussen können.
Ein Großteil der Daten, die diese Beeinflussung ermöglichen, entstehen dabei unbewusst und beiläufig. Sie können aber Rückschlüsse auf Vorlieben und Verhalten der Nutzerinnen und Nutzer ermöglichen. Wie banal diese Daten sein können, veranschaulicht der Versuch von Banken, Kreditwürdigkeit anhand von Postleitzahlen vorherzusagen. Ein ambitioniertes Beispiel bietet Prof. Dr. Michal Kosinski, ein Psychologe aus Stanford, der behauptet, dass er die sexuelle Orientierung eines Menschen an seinem Gesicht erkennen kann.
Die Beispiele zeigen wie die statistischen Werkzeuge des Maschinellen Lernens zunehmend von Laien verwendet werden, die die Richtigkeit ihrer Vorhersagen nur bedingt einschätzen können und die die Grenzen der Werkzeuge nicht hinreichend verstehen. Nichtsdestotrotz werden zunehmend Entscheidungen automatisiert auf Basis von Daten getroffen. Diese Entscheidungen treffen dabei vordergründig Algorithmen, die objektiv scheinen. Sie lernen aber alle Verzerrungen (Biases), die in den Daten angelegt sind. Alarmierendes Beispiel hierfür ist die Nutzung von Algorithmen im US-Justizsystem, wo eine Risikosoftware namens COMPAS systematisch Weiße bevorteilt und Afroamerikaner benachteiligt.
Ziel des Vortrages ist es, Möglichkeiten der Beeinflussung durch Künstliche Intelligenz aufzuzeigen und Zuhörerinnen und Zuhörer in die Lage zu versetzen, Chancen und Gefahren dieser Entwicklungen zu bewerten.
German: Finished