15.05.2024 | 

Webinar: Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen

Wir tauchen tief in die Welt des Tracings und Debuggings von generativen KI-Anwendungen ein, um die oft als "Black Box" wahrgenommenen Prozesse zugänglicher und transparenter zu machen. Mit Fokus auf modernen Large Language Models (LLMs) und deren Anwendungen, werden wir an praktischen Beispielen die effektive Nutzung von Werkzeugen wie LangFuse und LangSmith zur Beobachtung, Analyse und Verbesserung dieser Systeme betrachten.

Los geht es mit einer Einführung in die Herausforderungen beim Debugging von generativen AI-Workflows und wie diese mit den fortschrittlichen Funktionen von LangFuse und LangSmith bewältigt werden können. Der Schwerpunkt liegt dabei auf der zunehmenden Komplexität von LLM-Anwendungen, die umfangreiche Abstraktionen wie dynamische Prompts, Antworten von Retrievern und Tools, komplexe Chains und Agents nutzen. Hier können die verschachtelten Traces in LangFuse oder LangSmith dabei helfen, das Geschehen besser zu verstehen und die Ursachen von Problemen zu ergründen. Anschließend gehen wir auf die Analyse und das Tracking von Metriken wie Kosten, Latenzzeiten und Qualität der LLMs ein.

Mehr Beiträge zu Generative AI, LLM
Marco Frodl ist Consultant bei der Thinktecture AG und versteht sich als ein IT-Dolmetscher zwischen Developern und Anwendern.

Moderation

Picture of Gøran Homberg

Gøran Homberg

Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.

Agenda

  • Einführung und Überblick
  • Herausforderungen beim Debugging von generativen AI-Workflows
  • Einsatz von LangFuse und LangSmith
  • Analyse und Tracking von Metriken
  • Q&A und Diskussion

Material & Video zu
"Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen"

Links aus dem Webinar:

Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?

Kommende Webinare: jetzt kostenlos anmelden

Schneller entwickeln mit Angular, GitHub Copilot und ChatGPT

Daniel Sogl | 30.04.2025 | 10:30 Uhr

„Hallo, KI!?“ – Realtime-Interaktionen mit Language Models

Christian Liebel | 14.05.2025 | 10:30 Uhr

Aktuelle Webinar-Aufzeichnungen

Weitere Artikel zu Generative AI, LLM

AI
mf

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert

Meta hat mit der Llama 4-Familie eine neue Generation von KI-Modellen vorgestellt, die durch zwei wesentliche Innovationen hervorsticht: ein 10-Millionen-Token-Kontextfenster und native Multimodalität. Die Familie besteht aus Scout (109 Milliarden Parameter), Maverick (400 Milliarden Parameter) und dem noch in Entwicklung befindlichen Behemoth (2 Billionen Parameter). Durch die Mixture-of-Experts-Architektur und Unterstützung für 200 Sprachen bieten diese Modelle europäischen Unternehmen eine attraktive Alternative zu proprietären Lösungen. Trotz hoher Hardware-Anforderungen und einiger Lizenzeinschränkungen ermöglichen sie eine souveräne KI-Strategie ohne Vendor Lock-in bei gleichzeitig wettbewerbsfähiger Leistung und Kosteneffizienz.
06.04.2025
AI
favicon

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View

With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023

Unsere Webinare

Unsere Artikel

Mehr über uns