15.11.2023 | 

Webinar: Moderne Semantic Search mit LLMs, Vektor-Datenbanken und LangChain

Stellen Sie sich vor, Sie könnten eine Suchmaschine so präzise fragen, wie Sie einen Freund um Ratschläge bitten würden. Und diese Maschine versteht nicht nur Ihre Worte, sondern auch den Kontext und die Absicht dahinter.

Und sie findet die besten Antworten auf ihre Fragen nicht im Web, sondern ganz konkret in den Dokumenten ihrer eigenen Firma. Willkommen in der neuen, magischen Welt der Semantischen Suche.

In diesem Webinar zeigt Ihnen unser Experte Sebastian Gingter, wie man die "Magie" dahinter etwas entzaubern kann und welche Techniken hier konkret zum Einsatz kommen: Was sind Embeddings? Was sind Vektoren und wieso gibt es dafür separate Datenbanken? Dann geht es auch gleich pragmatisch daran, unsere Dokumente zu Indizieren und dabei betrachten wir auch welche Probleme auftauchen können und wie wir diese lösen können. Zuletzt schauen wir uns dann die Suche an und klären, was es mit Retrieval Augmented Generation (RAG) auf sich hat. Am Ende steht eine konkrete End-to-End Anwendung mit dem LangChain Toolkit in Python , die es unseren Mitarbeitern erlaubt sich mit unseren lebendig gewordenen internen Dokumenten zu unterhalten.

Mehr Beiträge zu AI, Generative AI, LLMs, RAG, Vector-Database
Sebastian Gingter ist Consultant und „Erklärbär“ bei Thinktecture. Seine Spezialgebiete sind Backend-Systeme mit .NET Core und IdentityServer.

Moderation

Gøran Homberg

Gøran Homberg

Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.

Agenda

  • Intro und Hintergrund-Infos
  • Was ist Semantische Suche?
  • Vektor-Datenbanken
  • Retrieval
  • Probleme und Lösungsstrategien
  • Retrieval Augmented Generation (RAG)
  • Beispiele mit LangChain

Material & Video zu
"Moderne Semantic Search mit LLMs, Vektor-Datenbanken und LangChain"

Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?

Slidedeck zu "Moderne Semantic Search mit LLMs, Vektor-Datenbanken und LangChain"

Kommende Webinare: jetzt kostenlos anmelden

@ngrx/signals: Reaktives State-Management auf Komponentenebene

Yannick Baron | 03.04.2024 | 10:30 Uhr

Transparente AI: Tracing- und Debugging-Techniken für LLM-Anwendungen

Marco Frodl | 15.05.2024 | 10:30 Uhr

Weitere Artikel zu AI, Generative AI, LLMs, RAG, Vector-Database

Low-angle photography of metal structure
AI
cl-neu

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig

Künstliche Intelligenz (KI) ist spätestens seit der Veröffentlichung von ChatGPT in aller Munde. Wit WebLLM können Sie einen KI-Chatbot in Ihre eigenen Angular-Anwendungen integrieren. Wie das funktioniert und welche Vor- und Nachteile WebLLM hat, lesen Sie hier.
26.02.2024
AI
favicon

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View

With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023

Unsere Webinare

Unsere Artikel

Mehr über uns