Real-World RAG: Eigene Daten & Dokumente mit semantischer Suche & LLMs erschliessen
Es klingt so simpel wie genial: Man wirft seine Dokumente einfach in eine Vektor-Datenbank und auf einmal kennt ein Large-Language Model unser Firmen-Fachwissen und wir können uns sinnvoll mit einem Chatbot über unsere Daten unterhalten. Wir müssen nur einem der zigtausenden Tutorials auf irgendwelchen Blogs oder Youtube folgen und schon sind wir am Ziel, richtig? Doch wie so oft sind Dinge, die zu gut klingen um Wahr zu sein leider auch genau das. Damit das eigene Projekt um Retrieval Augmented Generation und "Chat with your company data" wirklich erfolgreich wird, muss man allerdings etwas eigenes Hirnschmalz in das Thema stecken. In dieser Session führt Sie unser Experte Sebastian Gingter durch etwas Theorie zu Vektoren und Embeddings und zeigt damit, was Vektordatenbanken wirklich leisten können und was Splitting beim Erzeugen von Embeddings bedeutet. Worauf müssen wir beim Indizieren achten? Dabei buhlen noch die verschiedensten Tools wie LangChain, Azure Cognitive Search, Qdrant oder Chroma um unsere Aufmerksamkeit. Sehen Sie, wie man am Ende alle Schritte in der eigenen Applikation zu einem effizienten RAG-Prozess zusammenführt, der dann tatsächlich sinnvolle Antworten auf die Fragen der Benutzer zu den Daten & Dokumenten Ihrer Anwendung liefert.