Google Lens Multisearch – Das bringt das Update mit sich!

Letztes Jahr MUM, dieses Jahr Multisearch – Google erweitert seine Suchfunktionen und verbessert den eigenen Algorithmus stetig. Neben multimodalen Suchen durch den MUM-Algorithmus, also Suchen, die Informationen aus mehr als einer Quelle bzw. einer Sprache ziehen, kommt nun mit Googles Multisearch die Kombination aus Bild- und Textsuchen. Für Suchmaschinen-Nutzer heißt das: Die Suche im Web kann in Zukunft über ein Bild stattfinden und dann durch eine Texteingabe stark segmentiert oder verfeinert werden. Hier verraten wir Dir im Detail, was Dich erwartet!

Was ist Google Lens überhaupt?

Seit 2017 gibt es nun schon die Funktion der Google Lens. Diese ist über die Google-App, die Du über Dein Smartphone nutzen kannst, erreichbar. Du kannst sie nutzen, um unterschiedliche Aspekte visuell zu analysieren. Nach diesen Analysen werden Dir passende Suchergebnisse von Google vorgeschlagen. Um Google Lens zu verwenden, hast Du zwei Optionen:

  1. Verwenden eines Fotos, Screenshots oder Bildes aus Deiner Galerie
  2. Nutzen Deiner Kamera

Welche Funktionen bietet Dir Google Lens?

Folgende Funktionen hast Du, wenn Du Google Lens nutzt:

Einblick in die verschiedenen Funktionen von Google Lens, Quelle: ©Google

Was verändert sich durch das Update?

Bisher war Google Lens von der Websuche unabhängig – Multisearch soll dies jetzt allerdings ändern. Durch eine verbindende Suche von Bild und Text werden auch entsprechend passende Ergebnisse kombiniert. Anders, als Du es deshalb bisher gewohnt bist, hast Du nun die Möglichkeit, Deine Suchanfragen nicht nur über einen Text zu stellen. Gerade bei der Suche nach Produkten oder Gegenständen ist dies besonders hilfreich.

So funktioniert die Kombination aus Bild- und Text-Suche, Quelle: ©Google

Ein besonderer Clou: Die Multisearch ermöglicht es Dir auch nach bestimmten Mustern zu suchen. Siehst Du beispielsweise irgendwo eine Tapete, deren Muster Dir gut für Dein Sofa gefallen würde, kannst Du dieses abfotografieren. Daraufhin verfeinerst Du Deine Suche über das Stichwort „Sofa“, welches Du über einen Swipe-Up und dem Klick auf den Button „+ Add to your search“ hinzufügen kannst. Googles Multisearch wendet dann das Muster, das es auf dem Foto erkennt, an und kombiniert es mit Deiner Text-Suchanfrage, um Dir das bestmögliche Ergebnis auszuspielen. Ähnlich einsetzbar ist die Multisearch beispielsweise, wenn Dir ein Produkt bereits sehr gut gefällt, Du es aber gerne in einer anderen Farbe hättest. In diesem Fall spezifizierst Du über die Textsuche, nach welcher Farbe Du Ausschau hältst.

Fazit: Das bringt uns die neue Multisearch

Auch, wenn wohl der Nutzen für das Online-Shopping klar im Vordergrund steht, hat Multisearch noch viele weitere Anwendungsfelder. Hierzu zählen beispielsweise Pflegehinweise von Pflanzen oder das Einholen von Hintergrunddetails bei Stadtbesichtigungen oder Reisen. Das daraus resultierende Potenzial ist somit enorm und erstreckt sich auf weit mehr Branchen als nur den E-Commerce.

Einen Nachteil hat das Ganze jedoch (noch): Die neue Multisearch ist aktuell nur auf Englisch und auch nur am US-Markt verfügbar. Ab wann damit in Deutschland zu rechnen ist, kann aktuell noch nicht genauer gesagt werden. Vermutlich muss für einen weltweiten Rollout erst der Beta-Testlauf abgewartet werden.

Lara Meyer hat ihr Bachelorstudium der Betriebswirtschaft, Schwerpunkt Betriebswirtschaft der Medien, an der FH in Würzburg abgeschlossen. Als Teil des eology-Marketing-Teams kümmert sie sich um die Verbreitung des gesammelten eology-Wissens, indem sie ihr Know-how in Magazinen, Blogs und Zeitschriften teilt.

Kontakt

Melde Dich
bei uns

  +49 9381 5829000