Real-World RAG mit eigenen Daten & Dokumenten – Generative AI, Semantische Suche & LLMs jenseits von “Hallo Welt!”
Semantische Suche ist wohl das Paradebeispiel, um Generative AI mit eigenen Daten in eigene Businessanwendungen einzubinden. Mindestens eine Fantastilliarde Blogposts, YouTube-Tutorials und sonstige Artikel zeigen, wie man so etwas mit Large Language Models (LLMs) und Retrieval-Augmented Generation (RAG) - offenbar sehr einfach - realisieren kann. Doch wie immer steckt der Teufel im Detail. In dieser Session führt Sie unser Experte Sebastian Gingter durch ein bisschen Theorie zu Vektoren und Embeddings, zeigt, was Vektordatenbanken leisten und was Splitting beim Erzeugen von Embeddings bedeutet. Worauf müssen wir beim Indizieren achten? Dabei buhlen noch die verschiedensten Tools wie LangChain, Azure Cognitive Search, Qdrant oder Chroma um unsere Aufmerksamkeit. Sehen Sie, wie man am Ende alle Schritte in der eigenen Applikation zu einem effizienten RAG-Prozess zusammenführt, der dann auch wirklich sinnvolle Antworten auf die Fragen der Benutzer zu den Daten & Dokumenten Ihrer Anwendung liefert.