24.07.2024 |
- 10:30 Uhr
- Sebastian Gingter
Webinar: Schutz vor Halluzinationen und Prompt Injections: Absicherung von LLM-Integrationen in Ihre Business-Apps
Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungs-Richtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer "überredet" ein LLM alles tun zu können und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraum-Szenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie vieler Unternehmen.
In dieser Session beleuchtet Sebastian Gingter, wie wir robuste LLM-basierte Lösungen entwickeln können, die sowohl innovativ als auch sicher sind. Wir diskutieren reale Beispiele von Problemen in Anwendungen, die direkt durch ein LLM entstehen wie eben Halluzinationen oder Prompt-Injection-Angriffe. Sie sehen, welche Maßnahmen führende Anbieter ergriffen haben, um solche Risiken zu verhindern und welche konkreten Möglichkeiten Sie haben, Generative AI in ihre Schranken zu verweisen und zu einem sicheren, vertrauenswürdigen und wertschöpfenden Bestandteil Ihrer Produkte zu machen.
Sebastian Gingter ist Consultant und “Erklärbär” bei Thinktecture. Seine Spezialgebiete sind Backend-Systeme mit .NET Core und IdentityServer.
Moderation
Gøran Homberg
Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.
Agenda
- Spezifische Use-cases für unsere Betrachtung
- Mögliche Probleme und Gefahren beim Einsatz von LLMs in diesen Use-cases
- Lösungsansätze zur Vermeidung dieser Probleme
Material & Video zu "Schutz vor Halluzinationen und Prompt Injections: Absicherung von LLM-Integrationen in Ihre Business-Apps"
Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?
Slidedeck zu "Schutz vor Halluzinationen und Prompt Injections: Absicherung von LLM-Integrationen in Ihre Business-Apps"
Kommende Webinare: jetzt kostenlos anmelden
MCP: Plug & Pl-AI für KI-Integration eigener Daten & APIs
Christian Weyer | 13.08.2025 | 10:30 Uhr
Aktuelle Webinar-Aufzeichnungen
Christian Liebel | 14.05.2025 | 10:30 Uhr
Daniel Sogl | 30.04.2025 | 10:30 Uhr
Marco Frodl | 16.04.2025 | 10:30 Uhr
Weitere Artikel zu AI, Generative AI
AI

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert
Meta hat mit der Llama 4-Familie eine neue Generation von KI-Modellen vorgestellt, die durch zwei wesentliche Innovationen hervorsticht: ein 10-Millionen-Token-Kontextfenster und native Multimodalität. Die Familie besteht aus Scout (109 Milliarden Parameter), Maverick (400 Milliarden Parameter) und dem noch in Entwicklung befindlichen Behemoth (2 Billionen Parameter). Durch die Mixture-of-Experts-Architektur und Unterstützung für 200 Sprachen bieten diese Modelle europäischen Unternehmen eine attraktive Alternative zu proprietären Lösungen. Trotz hoher Hardware-Anforderungen und einiger Lizenzeinschränkungen ermöglichen sie eine souveräne KI-Strategie ohne Vendor Lock-in bei gleichzeitig wettbewerbsfähiger Leistung und Kosteneffizienz.
06.04.2025
AI

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig
Künstliche Intelligenz (KI) ist spätestens seit der Veröffentlichung von ChatGPT in aller Munde. Wit WebLLM können Sie einen KI-Chatbot in Ihre eigenen Angular-Anwendungen integrieren. Wie das funktioniert und welche Vor- und Nachteile WebLLM hat, lesen Sie hier.
26.02.2024
AI

Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
With the rise of powerful AI models and services, questions come up on how to integrate those into our applications and make reasonable use of them. While other languages like Python already have popular and feature-rich libraries like LangChain, we are missing these in .NET and C#. But there is a new kid on the block that might change this situation. Welcome Semantic Kernel by Microsoft!
03.05.2023