In dieser Ausgabe von Breitband geht es um drei scheinbar getrennte Phänomene, die alle die Frage umkreisen, wie viel Kontrolle wir über unsere digitale Umwelt haben oder haben wollen. Der Phishing-Angriff auf Bundestagspräsidentin Bärbel Bas wird zum Ausgangspunkt, um Sicherheit nicht nur als technische, sondern als Design- und Verhaltensfrage zu diskutieren. Ein Gespräch mit dem Kognitionspsychologen Tobias Feldmann-Wüstefeld macht messbar, wie Vertrauen in KI im Gehirn entsteht – und wie schnell es fehlgeleitet sein kann. Und ein TikTok-Trend, bei dem overender junge Frauen aus Einplatinencomputern verspielte Geräte bauen, wird als Suche nach Selbstwirksamkeit jenseits der großen Tech-Konzerne gedeutet.
Zentrale Punkte
- Sicherheit ist mehr als Kryptographie Der Phishing-Fall zeige, dass selbst als unhackbar geltende Apps wie Signal scheitern, wenn die Benutzeroberfläche nicht vor sozialer Manipulation schütze. Sicherheit müsse als „soziotechnisches Problem“ begriffen werden, bei dem nutzerfreundliches Design riskante Schatten-IT verhindern könne.
- Vertrauen in KI ist dynamisch messbar Mittels EEG lasse sich im Gehirn beobachten, wie Aufmerksamkeit von der eigenen Aufgabe abgezogen und der KI überlassen werde. Entscheidend sei eine flexible Vertrauenskalibrierung, die bei Fehlern sofort wieder sinke – ein Prozess, der im stressigen Alltag oft bewusst ablaufen müsse, um blindes Vertrauen zu vermeiden.
- Cyberdecks als Ausweg aus der Blackbox Der Bau individueller Mini-Computer mit Raspberry Pi, vorangetrieben von Creatorinnen auf TikTok, sei mehr als ein Retro-Hobby. Er werde als Versuch beschrieben, technologische Kontrolle von Big Tech zurückzuerlangen, Hemmschwellen durch mädchenhafte Ästhetik abzubauen und ein Bewusstsein für reparierbare Hardware zu schaffen.
Einordnung
Die Stärke dieser Episode liegt darin, dass sie technologische Fragen konsequent an den Menschen zurückbindet. Besonders der erste Beitrag entlarvt die öffentliche Häme über Phishing-Opfer als kontraproduktiv und lenkt den Blick stattdessen auf systemische Verantwortung – eine seltene, aber nötige Perspektive, die individuelle Schuldzuweisungen durch eine Analyse von Design und Arbeitsabläufen ersetzt. Die Forschung zu Vertrauen in KI wird anschaulich gemacht, vor allem durch die Gegenüberstellung von subjektiver Selbstauskunft und objektiver Messung im Gehirn.
Allerdings entkoppelt die politische Dimension des Messenger-Beitrags die Debatte von ihren unausgesprochenen Voraussetzungen. Der Vorstoß, Wire als vermeintlich sichere Alternative zu etablieren, wird zwar als Designfrage verhandelt, doch die politische Implikation – dass eine zentrale Regierungs-App womöglich Metadaten und Kommunikationsflüsse stärker bündelt, als es ein dezentral genutzter Dienst wie Signal täte – bleibt vollständig ausgeklammert. Die Einordnung von Design bleibt so rein funktionalistisch und fragt nicht, wessen Sicherheitsinteressen hier eigentlich optimiert werden. In der KI-Diskussion fehlt wiederum die strukturelle Perspektive: Die Macht der Unternehmen, über Schnittstellen ganz gezielt „Over-Trust“ zu erzeugen, wird kurz gestreift, aber sofort wieder fallen gelassen. Dass gerade große Sprachmodelle darauf optimiert sind, vertrauenswürdiger zu wirken als sie sind, gerät so zur Randnotiz statt zum zentralen Problem.
Hörempfehlung: Wer verstehen möchte, warum gute IT-Sicherheit immer auch eine Frage von Psychologie und Design ist, findet hier einen klaren und pointierten Einstieg mit klugen Praxisbeispielen.
Sprecher:innen
- Vera Linß – Moderatorin, Deutschlandfunk Kultur
- Hagen Terschüren – Breitband-Team, befasst mit IT-Sicherheit
- Aida Baghernejad – Breitband-Team, befasst mit digitalen Subkulturen
- Tobias Feldmann-Wüstefeld – Kognitionspsychologe, TU Berlin