Schon heute ist Google Lens ein mega Tool, weil es per Kamera sehr viele Dinge erkennen kann. Das bietet Hilfe in jeder Situation, egal ob es die Übersetzung fremder Sprachen, das Suchen eines Produkts oder der Baum zum gefundenen Blatt ist. Lens soll aber noch intelligenter werden und demnächst sogar kombinierte Anfragen unterstützen. Dafür kommt das neue MUM-System (Multitask Unified Model) zum Einsatz, das Google ebenfalls neu präsentierte.
Bild und Text in Kombination für Suchanfragen
In Google Lens ermöglicht es ganz konkret, dass ihr etwas über die Kamera analysieren lassen und dazu eine individuelle Frage per Text stellen könnt. Ihr fotografiert zum Beispiel ein Muster und möchtet ganz bestimmte Produkte mit diesem Muster finden.
„Sie könnten „weiße viktorianische Socken mit Blumenmuster“ eingeben, aber Sie finden möglicherweise nicht das genaue Muster, nach dem Sie suchen. Durch die Kombination von Bildern und Text in einer einzigen Abfrage erleichtern wir die visuelle Suche und stellen Ihre Fragen auf natürlichere Weise.“
Oder ihr fotografiert etwas Technisches und fragt Google, wie man das entsprechende Teil reparieren kann. Lens findet anhand das Fotos das richtige Produkt und die Google-Suche dazu die passende Anleitung. Oder wenigstens die passenden Suchergebnisse. Dahinter steckt ein komplexes System, das für uns das Leben erleichtert.
Google verspricht MUM in Google Lens im Frühjahr zu integrieren, nennt aber noch kein exaktes Datum. Es könnte außerdem gut möglich sein, dass zuerst nur englischsprachige Nutzer profitieren.
MUM, our advanced AI model, is coming to #GoogleLens early next year. You’ll be able to snap a photo AND ask a question, which can be helpful in those moments you need to fix a broken part and have no idea what it is 🤷🔧 #SearchOn pic.twitter.com/cmedce3dB2
— Google (@Google) September 29, 2021