Talk |
W-JAX 2024
| 07.11.2024
‘Talk to your systems’: LLM-Anbindung durch strukturierte Daten & Function Calling
Ja, es gibt mehr zu entdecken für Generative AI & Large Language Models (LLMs) als das bekannte "Sprechen" mit eigenen Daten (auch bekannt als RAG). Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren. In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs und Applikationen mit der Power von LLMs zu integrieren. Sehen Sie, wie die transformative Natur von Generative AI auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit Anwendungen und Systemen sprechen - im wahrsten Sinne des Wortes.
Christian Weyer ist Mitbegründer und CTO von Thinktecture. Er ist seit mehr als 25 Jahren als technischer Berater in der Softwarebranche aktiv.
Event
W-JAX 2024
04.11.24
- 08.11.24
@ München
(DE)
Links & Materialien
Slidedeck
Weitere Artikel zu Generative AI, Instructor, LLM, Ollama, OpenAI, Python, SLM
AI

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert
Meta hat mit der Llama 4-Familie eine neue Generation von KI-Modellen vorgestellt, die durch zwei wesentliche Innovationen hervorsticht: ein 10-Millionen-Token-Kontextfenster und native Multimodalität. Die Familie besteht aus Scout (109 Milliarden Parameter), Maverick (400 Milliarden Parameter) und dem noch in Entwicklung befindlichen Behemoth (2 Billionen Parameter). Durch die Mixture-of-Experts-Architektur und Unterstützung für 200 Sprachen bieten diese Modelle europäischen Unternehmen eine attraktive Alternative zu proprietären Lösungen. Trotz hoher Hardware-Anforderungen und einiger Lizenzeinschränkungen ermöglichen sie eine souveräne KI-Strategie ohne Vendor Lock-in bei gleichzeitig wettbewerbsfähiger Leistung und Kosteneffizienz.
06.04.2025
AI

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023