In dieser Folge von DOAG VOICES FutureAI spricht Host Dr. Benjamin Linnik, Tech Lead für KI-Anwendungen, mit Johann-Peter Hartmann, CTO, Gründer und KI-Experte, über die Zukunft agentischer Systeme und die Frage, wie lernfähige KI-Agents die Softwareentwicklung verändern.
Ein Gespräch über evolutionäre Algorithmen, Explainable AI, Selbstheilung im Code – und warum ein Agentenschwarm manchmal wie ein Sack Katzen ist. Es wurde während der KI Navigator Berlin aufgezeichnet (2. & 3. Juni 2025).
Kapitelübersicht
00:00 – Einführung & Vorstellung
Dr. Benjamin Linnik begrüßt Johann-Peter Hartmann und stellt dessen langen Background in der Softwareentwicklung vor.
02:00 – Der Reiz des Programmierens heute
Warum viele CTOs wieder selbst programmieren – und was die neue Generation von KI-Tools damit zu tun hat.
04:00 – Vom Traum zum System: Agenten und Swarms
Hartmann erklärt, warum er sich seit den 80ern für "Agents" begeistert – und wie Science Fiction langsam Realität wird.
07:00 – Kooperierende und lernende Agenten
Einblick in aktuelle Entwicklungen: Swarms, Metakognition und die Schwierigkeiten, Agenten zuverlässig arbeiten zu lassen.
09:00 – Agenten unter Kontrolle halten
Warum Swarms wie "ein Sack Katzen" sind – und wie strukturierte Agent Handoffs helfen, Chaos zu vermeiden.
12:00 – Praxiseinsatz: Modernisierung mit Agenten-Swarms
Wie KI-Agenten bei Softwaremigrationen helfen – und warum komplexe Projekte noch nicht ganz autonom funktionieren.
15:00 – Grenzen und Kosten der Technik
Warum Swarms zwar mächtig, aber teuer und schwer zu steuern sind – und wie man den Fokus behält.
17:00 – Self-Healing & Validierung
Wie Agenten sich selbst korrigieren, Tests durchführen und typische Entwicklerprobleme lösen.
19:00 – Lernen aus Fehlern: Promptistan & Rule-Sets
Hartmann über die Bedeutung von Regeln, Feedback-Loops und selbstlernenden Strategien im Agenten-Design.
21:00 – Explainable AI & Mensch im Loop
Wie erklärbare KI Transparenz schafft – und warum menschliches Feedback weiterhin unverzichtbar bleibt.
23:00 – Fazit & Ausblick
Warum die Zukunft agentischer Systeme spannend bleibt – und wie wir von KI-Systemen über unser eigenes Denken lernen.
---
Die Top 3 Learnings dieser Folge:
1. Agenten lernen – aber noch nicht stabil genug:
Kooperative und lernende Agenten eröffnen neue Möglichkeiten, stoßen aber bei komplexen Aufgaben an Grenzen.
2. Explainable AI ist Schlüssel zur Verantwortung:
Transparente Entscheidungsprozesse ermöglichen Vertrauen und gezieltes menschliches Feedback.
3. Selbstheilung und Regelwerke sind der Weg nach vorn:
Systeme, die Fehler erkennen, daraus lernen und Regeln verallgemeinern, sind die Basis der nächsten KI-Generation.
---
Mehr über die DOAG:
Entdecke viele weitere kostenlose Angebote – von DOAG.tv über WebSessions und Newsletter zu aktuellen IT-Themen bis hin zu Regionalgruppen und Communities sowie dem Zeitschriftenarchiv.
https://www.doag.org/
---
Anstehende DOAG-Konferenzen:
European NetSuite User Days | 17. & 18. November 2025 | Nürnberg | https://netsuite.doag.org/de/home/
DOAG 2025 Konferenz + Ausstellung | 18. - 21. November 2025 | Nürnberg | https://anwenderkonferenz.doag.org/de/home/
Low-Code Creator | 18. & 19. November 2025 | Nürnberg | https://low-code.doag.org/de/
KI Navigator | 19. & 20. November 2025 | Nürnberg | https://www.kinavigator.eu/de/nuernberg/
---
KI Navigator Berlin:
https://www.kinavigator.eu/de/ki-navigator-berlin-2025/
Hosted on Acast. See acast.com/privacy for more information.