15.05.2024 | 

Webinar: Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen

Wir tauchen tief in die Welt des Tracings und Debuggings von generativen KI-Anwendungen ein, um die oft als "Black Box" wahrgenommenen Prozesse zugänglicher und transparenter zu machen. Mit Fokus auf modernen Large Language Models (LLMs) und deren Anwendungen, werden wir an praktischen Beispielen die effektive Nutzung von Werkzeugen wie LangFuse und LangSmith zur Beobachtung, Analyse und Verbesserung dieser Systeme betrachten.

Los geht es mit einer Einführung in die Herausforderungen beim Debugging von generativen AI-Workflows und wie diese mit den fortschrittlichen Funktionen von LangFuse und LangSmith bewältigt werden können. Der Schwerpunkt liegt dabei auf der zunehmenden Komplexität von LLM-Anwendungen, die umfangreiche Abstraktionen wie dynamische Prompts, Antworten von Retrievern und Tools, komplexe Chains und Agents nutzen. Hier können die verschachtelten Traces in LangFuse oder LangSmith dabei helfen, das Geschehen besser zu verstehen und die Ursachen von Problemen zu ergründen. Anschließend gehen wir auf die Analyse und das Tracking von Metriken wie Kosten, Latenzzeiten und Qualität der LLMs ein.

Mehr Beiträge zu Generative AI, LLM
Marco Frodl ist Consultant bei der Thinktecture AG und versteht sich als ein IT-Dolmetscher zwischen Developern und Anwendern.

Moderation

Picture of Gøran Homberg

Gøran Homberg

Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.

Agenda

  • Einführung und Überblick
  • Herausforderungen beim Debugging von generativen AI-Workflows
  • Einsatz von LangFuse und LangSmith
  • Analyse und Tracking von Metriken
  • Q&A und Diskussion

Material & Video zu
"Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen"

Links aus dem Webinar:

Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?

Kommende Webinare: jetzt kostenlos anmelden

@ngrx/signals: Reaktives State-Management auf Komponentenebene

Yannick Baron | 03.04.2024 | 10:30 Uhr

Schutz vor Halluzinationen und Prompt Injections: Absicherung von LLM-Integrationen in Ihre Business-Apps

Sebastian Gingter | 24.07.2024 | 10:30 Uhr

Aktuelle Webinar-Aufzeichnungen

Weitere Artikel zu Generative AI, LLM

AI
favicon

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View

With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023

Unsere Webinare

Unsere Artikel

Mehr über uns