Talk |
OOP 2025
| 05.02.2025
Generative AI: LLM-basierte Anwendungen – Top Patterns und Lösungen für nahtlose Integration
Generative Al jenseits des Buzzword-Bingos. In diesem Vortrag präsentiert Christian Weyer konkrete Patterns und Lösungen für die Integration von Large Language Models (LLMs) in eigene Softwarearchitekturen. Wichtige Themen wie Semantic Routing, RAG, Structured Output oder Observability werden mit Code-Beispielen illustriert. Es erwartet Entwickler und Architekten ein pragmatischer Einblick zur Umsetzung in eigenen Projekten.
Christian Weyer ist Mitbegründer und CTO von Thinktecture. Er ist seit mehr als 25 Jahren als technischer Berater in der Softwarebranche aktiv.
Event
OOP 2025
03.02.25
- 07.02.25
@ München
(DE)
Links & Materialien
Mehr Beiträge zu Generative AI, GPT, LLM, Observability, Ollama, Patterns, Python, RAG, Semantic Routing, SLM, Structured Output
Event
OOP 2025
03.02.25
- 07.02.25
@ München
(DE)
Mehr Beiträge zu Generative AI, GPT, LLM, Observability, Ollama, Patterns, Python, RAG, Semantic Routing, SLM, Structured Output
Weitere Artikel zu Generative AI, GPT, LLM, Observability, Ollama, Patterns, Python, RAG, Semantic Routing, SLM, Structured Output
AI
Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023