Chatbots wie ChatGPT oder Claude wirken in ihren Antworten oft erstaunlich menschlich, haben aber ein grundlegendes Problem: Was in einem Chat besprochen wurde, ist im nächsten vergessen. Die Hosts Marie Kilg und Gregor Schmalzried sehen darin nicht nur eine technische Hürde, sondern den entscheidenden Unterschied zwischen einem einfachen Chatbot und einem wirklich persönlichen KI-System. In dieser technisch tiefgehenden, aber praxisnah gehaltenen Folge entwerfen sie das Rezept für ein „zweites Gehirn" – ein System, das nicht nur punktuell antwortet, sondern dauerhaft begreife, wer man ist und woran man arbeitet.

Ausgangspunkt sei, dass die integrierten Gedächtnisfunktionen der großen Anbieter oft wie ein lückenhafter Spickzettel funktionierten und starre Assistenten zu unflexibel seien. Die Lösung liege in einer modularen Architektur aus drei Komponenten: einem leistungsstarken Grundmodell, einer flexiblen Systemstruktur mit hinterlegbaren Fähigkeiten (Skills) und einem externen, softwareunabhängigen Wissensspeicher, der persönliche Kontextdateien enthalte.

Zentrale Punkte

  • Sprachmodelle lernen nicht kontinuierlich Im Gegensatz zu Menschen, die ihr Gehirn im Gespräch unbewusst „updaten", würden KI-Modelle einmalig trainiert und könnten aus Unterhaltungen nicht eigenständig lernen. Daher bräuchten sie eine von außen zugeführte, strukturierte Erinnerung an die Nutzerin oder den Nutzer.
  • Drei Zutaten für ein KI-System Ein starkes Grundmodell (z. B. GPT 4.5 oder Claude Opus) liefere die Basis. Darum herum baue man eine Infrastruktur, in der man sein Wissen in flexiblen „Skills" hinterlege. Als dritten Teil brauche es einen externen, selbst kontrollierten Wissensspeicher wie Notion, Obsidian oder eine Ordnerstruktur.
  • Vom starren Bot zum flexiblen Skill Anstatt für jede wiederkehrende Aufgabe einen eigenen, starren Chatbot zu bauen, könne man einzelne Fähigkeiten als Textanleitung definieren. Diese Skills könne die KI bei Bedarf selbstständig abrufen und sogar kombinieren, um komplexe, persönliche Aufgaben zu lösen.
  • Das zweite Gehirn braucht eine klare eigene Struktur Neben der Technik müsse man vor allem das eigene Chaos sortieren: Es gelte zu entscheiden, was die KI immer wissen muss und wo sie nur nachschlagen soll. Zudem solle man bewusst einen Bereich des Denkens klar von der KI trennen, um die eigenen Gedanken nicht mit KI-Ergebnissen zu vermischen.

Einordnung

Die Stärke der Folge liegt in ihrem Erfahrungsbericht. Anstatt nur abstrakte Konzepte zu erklären, beschreiben die beiden Hosts detailliert die selbst gebauten Systeme ihrer Redaktion und machen den Wert einer solchen Architektur an sehr konkreten, alltagsnahen Beispielen greifbar – von der automatisierten Podcast-Recherche bis zur wöchentlichen Arbeitsreflexion. Der Diskurs vermittelt ein hohes Maß an digitaler Selbstermächtigung und entmystifiziert den Hype-Begriff „Agent", indem er dessen Funktion simpel als eine Art von der KI selbst aufrufbarem Computerprogramm darstellt. Positiv hervorzuheben ist, dass die Hosts die Unabhängigkeit von einzelnen Anbietern betonen und mit einfachen Formaten wie Markdown eine dauerhafte Datenhoheit propagieren.

Kritisch zu sehen ist, dass die digitale Selbstoptimierung als kaum hinterfragtes Ziel vorausgesetzt wird. Die Diskussion bewegt sich im Rahmen eines Produktivitätsparadigmas, in dem Zeitersparnis und Effizienzgewinn die obersten Werte sind – das Wochenende am Rechner zu verbringen wird lediglich mit dem Verweis auf den späteren Nutzen gerechtfertigt. Der Datenschutz wird zwar kurz als zusätzliche Zutat angesprochen, die potenziellen Risiken einer so tiefen Integration in alle Lebensbereiche oder die gesellschaftlichen Folgen, wenn solche Werkzeuge zum Standard werden (etwa beim Ticketkauf), werden jedoch nur am Rande gestreift und nicht systematisch problematisiert. Eine journalistische Distanz fehlt hier zugunsten der reinen Machbarkeitserzählung. Die eigene Faszination an der Technik wird von Marie Kilg offen formuliert, wenn sie beschreibt, wie sie Systeme auch aus reinem Ordnungstrieb „poliert" – ein reflexiver Moment, der jedoch unkommentiert stehen bleibt.

Hörempfehlung: Eine lohnende Folge für technisch Interessierte, die über das reine Prompten hinauswachsen und ein dauerhaft nützliches, persönliches KI-Werkzeug aufbauen wollen – inklusive vieler praktischer Tipps und Tool-Nennungen.

Sprecher:innen

  • Marie Kilg – Host des KI-Podcasts, Redakteurin bei BR24
  • Gregor Schmalzried – Host des KI-Podcasts, freier Tech-Journalist