Event: Agentic AI Day
Sicherer Einsatz von KI-Agenten in Unternehmen
Agentic AI Day - Sicherer Einsatz von KI-Agenten in Unternehmen
Donnerstag, 26. März 2026 von 14:00 Uhr - 17:00 Uhr
Hochschule der Medien Stuttgart, Nobelstraße 8, Raum: Audimax i003
Anmeldung: Hier anmelden
Die Veranstaltung ist öffentlich und kostenfrei.
Wir befinden uns in einer Zeit, in der KI‑Agenten die Art wie wir lernen, arbeiten und leben rasant verändern. KI-Agenten können komplexe Aufgaben planen und automatisieren, Wissen dynamisch verknüpfen und Menschen in kreativen wie analytischen Prozessen unterstützen. Ihr Potenzial reicht von der Beschleunigung sämtlicher Arbeitsabläufe bis hin zu völlig neuen Formen der Zusammenarbeit zwischen Mensch und Maschine.
Gleichzeitig stellen uns KI‑Agenten vor wichtige Herausforderungen. Fragen nach Transparenz, Datensicherheit, Kontrolle und verantwortungsvollem Einsatz drängen sich auf, wenn diese Technologien in sensiblen Bereichen eingesetzt werden sollen. Der bewusste Umgang mit ihren Möglichkeiten und Grenzen ist entscheidend, um Innovation und Verantwortung miteinander zu verbinden.
Die Vorträge dieser Veranstaltung zeigen, wie für den Einsatz von KI-Agenten in Unternehmen Kontrollierbarkeit, Sicherheit und Qualitätssicherung implementiert werden.
Programm
- 14:00h: Begrüßung durch den Rektor Prof. Dr. Boris Kühnle
- 14:10h: Vom Large Language Model zum KI-Agenten Prof. Dr. Johannes Maucher
- 14:25h: Evaluierung von generativer KI: Methoden, Risiken und Best Practices Julio Borges, Robin Hutmacher
- 15:00h: Von Modellen zu Aufgaben: Governance für Agentische KI über End-to-End-Prozesse hinweg Claudia Rauscher
- 15:35h: Pause
- 15:50h: Qualitätssicherung für KI-Agenten-Systeme Leon Schröder
- 16:20h: tba, tba
Inhalte
Evaluierung von generativer KI: Methoden, Risiken und Best Practices
Die zunehmende Integration Generativer KI und Large Language Models (LLMs) in verschiedenste Branchen stellt einen Paradigmenwechsel in der operativen Effizienz dar, bringt jedoch auch erhebliche Herausforderungen in Bezug auf Zuverlässigkeit, Sicherheit und ethische Fragestellungen mit sich. Probleme wie Halluzinationen, Bias und die Anfälligkeit für Angriffe machen zuverlässige Validierungsverfahren erforderlich, um sicherzustellen, dass diese leistungsstarken Technologien sicher und verantwortungsvoll eingesetzt werden. Entsprechend werden in Forschung und Industrie wirksame Lösungen zum Umgang mit diesen Risiken entwickelt. Diese Präsentation stellt unsere Initiative bei Bosch zur Evaluation von LLM-basierten Anwendungen vor und erläutert unseren Ansatz zur Gewährleistung ihres sicheren und zuverlässigen Einsatzes im industriellen Umfeld.
Über die Referenten
Von Modellen zu Aufgaben: Governance für Agentische KI über End-to-End-Prozesse hinweg
Agentische KI erfordert neue Formen der Governance, da autonome Systeme zunehmend Aufgaben über Prozessgrenzen hinweg übernehmen. Der Vortrag zeigt, warum Steuerung, Security und Human-in-the-Loop nicht auf Modell-, sondern auf Aufgabenebene verankert werden müssen und wie ein task-zentrierter Orchestrierungsansatz Organisationen dabei unterstützt, agentische KI verantwortungsvoll und skalierbar einzusetzen.
Über die Referentin
Qualitätssicherung für KI-Agenten-Systeme: Eval-Pipelines, Control Surfaces und neuro-symbolische Auditierbarkeit
LLM-basierte KI-Agenten verschieben die Software-Qualitätssicherung von deterministischen Unit-Tests hin zu probabilistischen, szenariogetriebenen Evaluationspipelines. Der Vortrag bündelt Best Practices aus Industrieprojekten: Eval-driven Development mit kuratierten goldenen Testsets, skalierbare Bewertung über LLM-as-a-Judge sowie Control Surfaces wie Guardrails, Sandboxes und Capability Scoping (Tool- und Rechtebegrenzung). Im Zentrum stehen szenariobasierte Tests, die mehrschrittige Agentenhandlungen, Tool-Aufrufe und Sicherheitsanforderungen end-to-end abdecken. Abschließend diskutieren wir neuro-symbolische Perspektiven: explizite Wissensmodelle und Regeln, die Entscheidungen von KI-Agenten nachvollziehbar machen und Audits erleichtern.
Über den Referenten
Referentenslot 4: to be announced - tba
Dieser Slot ist noch nicht veröffentlicht.
