- 10:30 Uhr
- Thinktecture Team
Webinar: Serverless Generative AI mit Llama2 und Fermyon Cloud
WebAssembly (Wasm), Serverless, und Generative AI mit Llama2 oder CodeLlama. Was zunächst wie eine Verkettung aktueller Hype-Buzzwords aussieht, beschreibt allerdings einen neuen, richtungsweisenden Technologie-Stack, der es uns ermöglicht, AI-gestützte Anwendungen in der Cloud zu realisieren. All dies, ohne hierbei Dienste oder Large Language Models (LLMs) zu provisionieren oder gar verwalten zu müssen. In diesem Webinar zeigt Thorsten Hans, welche Möglichkeiten Fermyon Serverless AI bereits heute bietet, wie Sie LLMs wie Llama2 und CodeLlama verwenden können, um im Handumdrehen eine intelligente App zu implementieren. Kein Server; kein kompliziertes Deployment; keine Fixkosten; keine Diskussionen um Kaltstartzeiten; Let’s go!
Moderation
Gøran Homberg
Gøran Homberg ist Consultant bei Thinktecture und arbeitet mit unseren Kunden bzgl. deren Anforderungen, Projektansätzen und zugehörigem Projekt-Management.
Agenda
- Was ist Spin?
- Was ist Fermyon Cloud?
- Serverless AI Demo
Material & Video zu "Serverless Generative AI mit Llama2 und Fermyon Cloud"
Links aus dem Webinar:
Sie wünschen sich Unterstützung durch unsere Experten in Ihrem Projekt?
Kommende Webinare: jetzt kostenlos anmelden
Turbo RAG: AI-basierte Retriever-Auswahl mit Semantic Router
Marco Frodl | 12.02.2025 | 10:30 Uhr
Aktuelle Webinar-Aufzeichnungen
Max Marschall | 04.12.2024 | 10:30 Uhr
Christian Liebel | 18.12.2024 | 10:30 Uhr
Daniel Sogl | 13.11.2024 | 10:30 Uhr
Weitere Artikel zu AI, Generative AI, LLMs, WebAssembly
AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig
Integrating AI Power into Your .NET Applications with the Semantic Kernel Toolkit – an Early View
Understanding and Controlling the Blazor WebAssembly Startup Process
Adding Superpowers to your Blazor WebAssembly App with Project Fugu APIs
Whether you're a seasoned Blazor developer or just getting started, this article will help you add superpowers to your Blazor WebAssembly app.