Generative AI: Semantische Suche und LLMs Jenseits des Hello-World-RAG-Tutorials
Semantische Suche ist wohl das Paradebeispiel, um Generative AI mit eigenen Daten in eigene Businessanwendungen einzubinden. Mindestens eine Fantastilliarde Blogposts, YouTube-Tutorials und sonstige Artikel zeigen, wie man so etwas mit Large Language Models (LLMs) und Retrieval-augmented Generation (RAG) – offenbar sehr einfach – realisieren kann. Doch wie immer steckt der Teufel im Detail. In dieser Session führt Sie unser Experte Sebastian Gingter durch ein bisschen Theorie zu Vektoren und Embeddings, zeigt, was Vektordatenbanken leisten und was Splitting beim Erzeugen von Embeddings bedeutet. Worauf müssen wir beim Indizieren achten? Dabei buhlen die verschiedensten Tools wie LangChain, Azure Cognitive Search, Qdrant oder Chroma um unsere Aufmerksamkeit. Sehen Sie, wie man am Ende alle Schritte in der eigenen Applikation zu einem effizienten RAG-Prozess zusammenführt, der dann auch wirklich sinnvolle Antworten auf die Fragen der Benutzer zu den Daten und Dokumenten Ihrer Anwendung liefert.
Event

Links & Materialien
Slidedeck
Weitere Artikel zu .NET, Generative AI, LangChain, Python, RAG, Semantic Kernel

Pattern Matching with Discriminated Unions in .NET

Value Objects in .NET: Integration with Frameworks and Libraries

Smart Enums: Adding Domain Logic to Enumerations in .NET

Discriminated Unions: Representation of Alternative Types in .NET

Handling Complexity: Introducing Complex Value Objects in .NET
