Immer mehr Entwickler beabsichtigen, Generative-AI-Funktionen in ihre Anwendungen zu integrieren. Bislang führte dieser Weg praktisch immer in die Cloud – aber das muss nicht so sein! Plattform- und Browserhersteller sind dazu übergegangen, KI-Modelle direkt mit ihren Betriebssystem auszuliefern: So läuft Apple Intelligence auf dem eigenen Gerät und auch Google liefert auf leistungsstarken Android-Smartphones sein Mdoell Gemini Nano aus. Aktuell implementieren Microsoft und Chromium die Built-in-AI-Schnittstellen in Chrome und Edge, die Zugriff auf ein lokal installiertes Large Language Modell (LLM) gewähren. Die Vorteile liegen auf der Hand: Die Anwenderdaten verlassen das Gerät nicht, alles funktioniert auch bei schwacher oder komplett ohne Internetverbindung und es muss kein extra Modell heruntergeladen werden, da einfach das lokal vorhandene genutzt wird. In diesem Webinar zeigt Christian Liebel, Google GDE und Microsoft MVP, welche Use Cases die Built-in AI APIs abdecken und wie auch Sie Ihre Webanwendung dank Built-in AI smarter machen.
Wann
Mittwoch, 18/12/2024 · 10:30
Berlin (GMT +1:00)
Agenda
TBA
Moderatoren
Christian Liebel
Consultant @ Thinktecture
Christian Liebel ist Consultant bei Thinktecture. Sein Fokus liegt auf Webstandards und Progressive Web Apps. Er vertritt Thinktecture beim W3C.
Göran Homberg
Moderator & Consultant
Bei Thinktecture berate und arbeite ich mit einer breit gefächerten Anzahl von Software-Teams aus unterschiedlichen Branchen und helfe ihnen, Stolpersteine zu vermeiden, schwierige Herausforderungen zu meistern und sich weiter zu entwickeln.
Sie sind registriert
Überprüfen Sie Ihre E-Mail auf eine Bestätigung und einen Link, um an der Live-Sitzung teilzunehmen.