Generative AI: Semantische Suche und LLMs Jenseits des Hello-World-RAG-Tutorials
Semantische Suche ist wohl das Paradebeispiel, um Generative AI mit eigenen Daten in eigene Businessanwendungen einzubinden. Mindestens eine Fantastilliarde Blogposts, YouTube-Tutorials und sonstige Artikel zeigen, wie man so etwas mit Large Language Models (LLMs) und Retrieval-augmented Generation (RAG) – offenbar sehr einfach – realisieren kann. Doch wie immer steckt der Teufel im Detail. In dieser Session führt Sie unser Experte Sebastian Gingter durch ein bisschen Theorie zu Vektoren und Embeddings, zeigt, was Vektordatenbanken leisten und was Splitting beim Erzeugen von Embeddings bedeutet. Worauf müssen wir beim Indizieren achten? Dabei buhlen die verschiedensten Tools wie LangChain, Azure Cognitive Search, Qdrant oder Chroma um unsere Aufmerksamkeit. Sehen Sie, wie man am Ende alle Schritte in der eigenen Applikation zu einem effizienten RAG-Prozess zusammenführt, der dann auch wirklich sinnvolle Antworten auf die Fragen der Benutzer zu den Daten und Dokumenten Ihrer Anwendung liefert.
Event

Links & Materialien
Slidedeck
Weitere Artikel zu .NET, Generative AI, LangChain, Python, RAG, Semantic Kernel

Advanced Value Object Patterns in .NET

Discriminated Unions in .NET: Modeling States and Variants

Smart Enums in .NET: Integration with Frameworks and Libraries

Value Objects in .NET: Enhancing Business Semantics

Pattern Matching with Discriminated Unions in .NET
