Was steckt hinter der neuen KI-App auf Google Pixel?

Google-Pixel-8-Display-Hero

Bei Google gibt es seit einigen Jahren das Projekt „Mainline“, wodurch es etabliert wurde, wichtige System-Funktionen für Android auszulagern. Das Ziel ist es, viele der Google und Pixel-Funktionen einerseits von Android zu trennen, andererseits sie zukünftig auch leichter per App-Updates pflegen zu können.

Jetzt gibt es auch eine neue KI-App namens „AI Core“, zu der Google bislang nicht viel sagte. Anhand des Namens können wir uns schon den Hintergrund denken, aber nun gibt es ein paar mehr Informationen dazu. Weil mal wieder „AssembleDebug“ einen tiefen Blick in die Quellcodes und Schnittstellen der App geworfen hat.

Neue App bringt wichtige KI-Modelle direkt auf die Google-Smartphones

AI Core ist die wichtige Schnittstelle, um KI-Funktionen für andere Apps anzubieten. Diverse APIs zeigen, dass dazu das generative Erstellen von Bildern gehört, zum Beispiel für die KI-Wallpaper (ab Pixel 8). Aber auch die kommende Gboard-Neuerung, eingegebenen Text Korrektur lesen und anpassen zu können, wird über AI Core gesteuert.

Zunächst ist die App noch auf Tensor G3 und Google Pixel 8 Pro beschränkt, aber wir werden sie laut des Kollegen schon bald auch auf älteren Pixel-Smartphones sehen. Google bringt mit dieser App wohl KI-Modelle direkt auf unsere Geräte. Somit kümmert sich AI Core um die KI-Funktionen, die von den Tensor-Chipsätzen direkt ausgeführt werden können.

Es wird ohnehin spannend zu sehen sein, welche der KI-Neuerungen demnächst auf ältere Pixel-Modelle kommen. Ich denke nicht, dass es für alles zwingend ein Gerät mit Tensor G3 benötigt. Spannend könnte diesbezüglich der kommende Pixel Feature Drop und damit das erste Quartals-Update für Android 14 sein, das eigentlich schon im Dezember kommt.

Folge jetzt unserem Newsletter-Kanal bei WhatsApp. Info: *provisionierte Affiliate-Links.

Kommentar verfassen

Bleibt bitte nett zueinander!