If you suspend your transcription on amara.org, please add a timestamp below to indicate how far you progressed! This will help others to resume your work!
Please do not press “publish” on amara.org to save your progress, use “save draft” instead. Only press “publish” when you're done with quality control.
In Debatten zu KI und Nachhaltigkeit steht zurecht der enorme Ressourcenverbrauch von KI am Pranger. Aber wir dürfen nicht vergessen, dass es bei Nachhaltigkeit um noch viel mehr geht. Mindestens 7 der 17 Nachhaltigkeitsziele der UN verweisen auf soziale Dimensionen: Gleichheit, Anti-Diskriminierung, Zugang zu Bildung, Abbau von ökonomischer Ungleichheit und Ausbeutung. Der Vortrag diskutiert, dass künstliche Intelligenz, wenn sie nicht besser reguliert wird, diesen Zielen entgegensteht. Das liegt nicht nur daran, dass KI-Systeme Biases haben und sich diskriminierend auswirken. Sondern noch fundamentaler beruhen die meisten kommerziellen KI-Systeme auf sozialer und wirtschaftlicher Ausbeutung. Global wie lokal werden Nutzer:innen als Datenlieferant:innen und Gig-Arbeiter:innen als günstige Arbeitskräfte eingespannt. Unser Denken, Fühlen und Handeln wird in allen Lebensbereichen datafiziert; ökonomische Machtgradienten zwischen Globalem Norden und Süden werden für die Aufbereitung von Daten ausgebeutet. Viele KI-Systeme erzeugen ihre Intelligenzleistung nicht im Rechenzentrum, sondern durch das Auslesen menschlicher kognitiver Leistungen an den digitalen Interfaces, die wir täglich nutzen – Beispiele reichen von der Google-Suche über Gesichtserkennung bis ChatGPT. KI-Unternehmen machen von den niedrigen Arbeitsschutzstandards und Lohnniveaus in anderen Ländern Gebrauch und produzieren Krankheit und Prekarität bei den betroffenen Arbeiter:innen. Um gute Regulierung zu erreichen, müssen wir KI-Systeme als soziotechnische Systeme betrachten. Das ermöglicht ein reichhaltigeres Verständnis der sozialen Dimension von Nachhaltigkeit, um global steigender Ungleichheit und Ausbeutung durch KI-Systeme etwas entgegenzusetzen.