Talk |
INFODAYS - Generative AI für Developer
| 27.05.2024
Wieso versteht der Computer mich auf einmal? Wir lüften das Geheimnis von Embeddings
Embeddings, oder auch Embedding-Vektoren, sind die Grundlage der semantischen Suche. Alle Systeme die z.B. mit Retrieval Augmented Generation, oder kurz RAG, Informationen suchen und durch ein LLM die Antwort ausformulieren lassen basieren hierauf.
Aber Embeddings können so viel mehr: Das schnelle und unkomplizierte Verstehen von natürlichsprachigen Anweisungen erlaubt es uns zum Beispiel, basierend auf einer Eingabe des Nutzers auf die richtige Maske in der Anwendung zu navigieren. Wir können Kunden-E-Mails mit Hilfe von Vektoren schon vorkategorisieren und Tags vergeben, um die Abarbeitung zu vereinfachen.
In diesem Talk erklärt Ihnen unser Experte Sebastian Gingter, was Embeddings eigentlich sind, wie und warum sie funktionieren und zeigt Ihnen mögliche Anwendungsgebiete, um Ihren Business-Anwendungen auch ohne LLM schon ein gewisses Sprachverständnis beizubringen.
Sebastian ist Consultant bei Thinktecture und Microsoft MVP. Seine Spezialgebiete sind Generative AI im Businessumfeld sowie ASP.NET Core.
Event
INFODAYS - Generative AI für Developer
27.05.24
- 29.05.24
@ Bonn
(DE)
Slidedeck
Weitere Artikel zu aktuellen Schwerpunkten
AI

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert
Meta hat mit der Llama 4-Familie eine neue Generation von KI-Modellen vorgestellt, die durch zwei wesentliche Innovationen hervorsticht: ein 10-Millionen-Token-Kontextfenster und native Multimodalität. Die Familie besteht aus Scout (109 Milliarden Parameter), Maverick (400 Milliarden Parameter) und dem noch in Entwicklung befindlichen Behemoth (2 Billionen Parameter). Durch die Mixture-of-Experts-Architektur und Unterstützung für 200 Sprachen bieten diese Modelle europäischen Unternehmen eine attraktive Alternative zu proprietären Lösungen. Trotz hoher Hardware-Anforderungen und einiger Lizenzeinschränkungen ermöglichen sie eine souveräne KI-Strategie ohne Vendor Lock-in bei gleichzeitig wettbewerbsfähiger Leistung und Kosteneffizienz.
06.04.2025
Angular

View Transition API Integration in Angular—a brave new world (Part 1)
If you previously wanted to integrate view transitions into your Angular application, this was only possible in a very cumbersome way that needed a lot of detailed knowledge about Angular internals. Now, Angular 17 introduced a feature to integrate the View Transition API with the router. In this two-part series, we will look at how to leverage the feature for route transitions and how we could use it for single-page animations.
15.04.2024
AI

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig
Künstliche Intelligenz (KI) ist spätestens seit der Veröffentlichung von ChatGPT in aller Munde. Wit WebLLM können Sie einen KI-Chatbot in Ihre eigenen Angular-Anwendungen integrieren. Wie das funktioniert und welche Vor- und Nachteile WebLLM hat, lesen Sie hier.
26.02.2024
.NET

Data Access in .NET Native AOT with Sessions
.NET 8 brings Native AOT to ASP.NET Core, but many frameworks and libraries rely on unbound reflection internally and thus cannot support this scenario yet. This is true for ORMs, too: EF Core and Dapper will only bring full support for Native AOT in later releases. In this post, we will implement a database access layer with Sessions using the Humble Object pattern to get a similar developer experience. We will use Npgsql as a plain ADO.NET provider targeting PostgreSQL.
15.11.2023
.NET

Native AOT with ASP.NET Core – Overview
Originally introduced in .NET 7, Native AOT can be used with ASP.NET Core in the upcoming .NET 8 release. In this post, we look at the benefits and drawbacks from a general perspective and perform measurements to quantify the improvements on different platforms.
02.11.2023