OFFRE D'UNE DURÉE LIMITÉE. Obtenez 3 mois à 0,99 $/mois. Profiter de l'offre.
Page de couverture de DOAG VOICES FutureAI – mit Dr. Benjamin Linnik und Johann-Peter Hartmann

DOAG VOICES FutureAI – mit Dr. Benjamin Linnik und Johann-Peter Hartmann

DOAG VOICES FutureAI – mit Dr. Benjamin Linnik und Johann-Peter Hartmann

Écouter gratuitement

Voir les détails du balado

À propos de cet audio

In dieser Folge von DOAG VOICES FutureAI spricht Host Dr. Benjamin Linnik, Tech Lead für KI-Anwendungen, mit Johann-Peter Hartmann, CTO, Gründer und KI-Experte, über die Zukunft agentischer Systeme und die Frage, wie lernfähige KI-Agents die Softwareentwicklung verändern.


Ein Gespräch über evolutionäre Algorithmen, Explainable AI, Selbstheilung im Code – und warum ein Agentenschwarm manchmal wie ein Sack Katzen ist. Es wurde während der KI Navigator Berlin aufgezeichnet (2. & 3. Juni 2025).


Kapitelübersicht


00:00 – Einführung & Vorstellung

Dr. Benjamin Linnik begrüßt Johann-Peter Hartmann und stellt dessen langen Background in der Softwareentwicklung vor.


02:00 – Der Reiz des Programmierens heute

Warum viele CTOs wieder selbst programmieren – und was die neue Generation von KI-Tools damit zu tun hat.


04:00 – Vom Traum zum System: Agenten und Swarms

Hartmann erklärt, warum er sich seit den 80ern für "Agents" begeistert – und wie Science Fiction langsam Realität wird.


07:00 – Kooperierende und lernende Agenten

Einblick in aktuelle Entwicklungen: Swarms, Metakognition und die Schwierigkeiten, Agenten zuverlässig arbeiten zu lassen.


09:00 – Agenten unter Kontrolle halten

Warum Swarms wie "ein Sack Katzen" sind – und wie strukturierte Agent Handoffs helfen, Chaos zu vermeiden.


12:00 – Praxiseinsatz: Modernisierung mit Agenten-Swarms

Wie KI-Agenten bei Softwaremigrationen helfen – und warum komplexe Projekte noch nicht ganz autonom funktionieren.


15:00 – Grenzen und Kosten der Technik

Warum Swarms zwar mächtig, aber teuer und schwer zu steuern sind – und wie man den Fokus behält.


17:00 – Self-Healing & Validierung

Wie Agenten sich selbst korrigieren, Tests durchführen und typische Entwicklerprobleme lösen.


19:00 – Lernen aus Fehlern: Promptistan & Rule-Sets

Hartmann über die Bedeutung von Regeln, Feedback-Loops und selbstlernenden Strategien im Agenten-Design.


21:00 – Explainable AI & Mensch im Loop

Wie erklärbare KI Transparenz schafft – und warum menschliches Feedback weiterhin unverzichtbar bleibt.


23:00 – Fazit & Ausblick

Warum die Zukunft agentischer Systeme spannend bleibt – und wie wir von KI-Systemen über unser eigenes Denken lernen.


---


Die Top 3 Learnings dieser Folge:


1. Agenten lernen – aber noch nicht stabil genug:

Kooperative und lernende Agenten eröffnen neue Möglichkeiten, stoßen aber bei komplexen Aufgaben an Grenzen.


2. Explainable AI ist Schlüssel zur Verantwortung:

Transparente Entscheidungsprozesse ermöglichen Vertrauen und gezieltes menschliches Feedback.


3. Selbstheilung und Regelwerke sind der Weg nach vorn:

Systeme, die Fehler erkennen, daraus lernen und Regeln verallgemeinern, sind die Basis der nächsten KI-Generation.


---


Mehr über die DOAG:


Entdecke viele weitere kostenlose Angebote – von DOAG.tv über WebSessions und Newsletter zu aktuellen IT-Themen bis hin zu Regionalgruppen und Communities sowie dem Zeitschriftenarchiv.


https://www.doag.org/


---


Anstehende DOAG-Konferenzen:


European NetSuite User Days | 17. & 18. November 2025 | Nürnberg | https://netsuite.doag.org/de/home/


DOAG 2025 Konferenz + Ausstellung | 18. - 21. November 2025 | Nürnberg | https://anwenderkonferenz.doag.org/de/home/


Low-Code Creator | 18. & 19. November 2025 | Nürnberg | https://low-code.doag.org/de/


KI Navigator | 19. & 20. November 2025 | Nürnberg | https://www.kinavigator.eu/de/nuernberg/


---


KI Navigator Berlin:


https://www.kinavigator.eu/de/ki-navigator-berlin-2025/

Hosted on Acast. See acast.com/privacy for more information.

Pas encore de commentaire