Built-in AI: Die AI-Revolution direkt im Browser
Immer mehr Entwickler beabsichtigen, Generative-AI-Funktionen in ihre Anwendungen zu integrieren. Bislang führte dieser Weg praktisch immer in die Cloud – aber das muss nicht so sein! Plattform- und Browserhersteller sind dazu übergegangen, KI-Modelle direkt mit ihren Betriebssystemen auszuliefern: So läuft Apple Intelligence auf dem eigenen Gerät und auch Google liefert auf leistungsstarken Android-Smartphones sein Mdoell Gemini Nano aus. Aktuell implementieren Microsoft und Chromium die Built-in-AI-Schnittstellen in Chrome und Edge, die Zugriff auf ein lokal installiertes Large Language Modell (LLM) gewähren. Die Vorteile liegen auf der Hand: Die Anwenderdaten verlassen das Gerät nicht, alles funktioniert auch bei schwacher oder komplett ohne Internetverbindung und es muss kein extra Modell heruntergeladen werden, da einfach das lokal vorhandene genutzt wird. In dieser Session zeigt Christian Liebel, welche Anwendungsfälle die Built-in AI APIs abdecken und wie auch Sie Ihre Webanwendung dank Built-in AI smarter machen.
Event

Weitere Artikel zu AI, Generative AI

Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert

AI-Funktionen zu Angular-Apps hinzufügen: lokal und offlinefähig
