Talk |
W-JAX 2024
| 07.11.2024
‘Talk to your systems’: LLM-Anbindung durch strukturierte Daten & Function Calling
Ja, es gibt mehr zu entdecken für Generative AI & Large Language Models (LLMs) als das bekannte "Sprechen" mit eigenen Daten (auch bekannt als RAG). Basierend auf ihrem Verständnis der menschlichen Sprache können LLMs genutzt werden, um innovative Interaktionen für Anwendungen und Systeme zu realisieren. In dieser Session zeigt Christian, wie Sie strukturierte Datenausgaben mit Datenschemata und Funktionsaufrufen nutzen, um Ihre APIs und Applikationen mit der Power von LLMs zu integrieren. Sehen Sie, wie die transformative Natur von Generative AI auch Ihren Lösungen helfen kann. Kommen Sie vorbei und lassen Sie uns mit Anwendungen und Systemen sprechen - im wahrsten Sinne des Wortes.
Christian Weyer ist Mitbegründer und CTO von Thinktecture. Er ist seit mehr als 25 Jahren als technischer Berater in der Softwarebranche aktiv.
Event
W-JAX 2024
04.11.24
- 08.11.24
@ München
(DE)
Links & Materialien
Slidedeck
Weitere Artikel zu Generative AI, Instructor, LLM, Ollama, OpenAI, Python, SLM
AI
Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023