Generative AI: Semantische Suche und LLMs Jenseits des Hello-World-RAG-Tutorials
Semantische Suche ist wohl das Paradebeispiel, um Generative AI mit eigenen Daten in eigene Businessanwendungen einzubinden. Mindestens eine Fantastilliarde Blogposts, YouTube-Tutorials und sonstige Artikel zeigen, wie man so etwas mit Large Language Models (LLMs) und Retrieval-augmented Generation (RAG) – offenbar sehr einfach – realisieren kann. Doch wie immer steckt der Teufel im Detail. In dieser Session führt Sie unser Experte Sebastian Gingter durch ein bisschen Theorie zu Vektoren und Embeddings, zeigt, was Vektordatenbanken leisten und was Splitting beim Erzeugen von Embeddings bedeutet. Worauf müssen wir beim Indizieren achten? Dabei buhlen die verschiedensten Tools wie LangChain, Azure Cognitive Search, Qdrant oder Chroma um unsere Aufmerksamkeit. Sehen Sie, wie man am Ende alle Schritte in der eigenen Applikation zu einem effizienten RAG-Prozess zusammenführt, der dann auch wirklich sinnvolle Antworten auf die Fragen der Benutzer zu den Daten und Dokumenten Ihrer Anwendung liefert.
Event
Links & Materialien
Slidedeck
Weitere Artikel zu .NET, Generative AI, LangChain, Python, RAG, Semantic Kernel
Data Access in .NET Native AOT with Sessions
Native AOT with ASP.NET Core – Overview
Incremental Roslyn Source Generators: High-Level API – ForAttributeWithMetadataName – Part 8
Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
.NET 7 Performance: Regular Expressions – Part 2
In this second article of our short performance series, we want to look at the latter one of those problems.