If you suspend your transcription on amara.org, please add a timestamp below to indicate how far you progressed! This will help others to resume your work!
Please do not press “publish” on amara.org to save your progress, use “save draft” instead. Only press “publish” when you're done with quality control.
Es ist vieles gesagt und geschrieben worden über große Sprachmodelle und die Gefahren, die mit ihnen einhergehen, die Biases, die Verstärkung von Ausbeutung, die Zementierung von Machtverhältnissen und neue Möglichkeiten von Angriffen. Das alles gilt weiterhin. Doch umso mehr sollten wir uns anschauen, wie wir die Technologie mit ihren eigenen Waffen schlagen können. Denn all diese Chatbots haben sich in einem Bereich eingenistet, in dem wir Menschen besonders gut sind: Sprache. Quatschen wir sie in ihr Verderben!
In dem Talk erkläre ich anhand von Beispielen aus meinen jüngsten Recherchen, wie wir große Sprachmodelle anders nutzen können, als sie möglicherweise gedacht sind – und wie wir damit Gutes tun können. Beispielsweise habe ich Chatbots per social engineering dazu gebracht, ihre dunklen Geheimnisse – wie manipulierende Initial Prompts – zu verraten, und damit dahinterstehende Firmen und deren verwerfliche Machenschaften entblößt. Oder mir bei investigativen Recherchen zu helfen, die besten Google Dorks zu erklären, Verstecktes in Bildern zu erkennen und Dinge zu verraten, die sie eigentlich nicht preisgeben sollen – wie Julian Reichelts private E-Mail-Adresse oder gesammelte E-Mail-Adressen aller Gesundheitsämter in Rheinland-Pfalz.
Es wird unterhaltsam. Und es gibt viel mitzunehmen: Zuhörer:innen lernen dabei nicht nur sinnvolle Tricks für ihre eigenen Recherchen, sondern ganz nebenbei auch, wie sie ihre eigenen Daten besser schützen können.