Multisearch Google Lens: la nuova ricerca multipla

Multisearch Google Lens: la nuova ricerca multipla

Grandi novità per Google Lens, che nei giorni scorsi ha implementato la nuova e innovativa funzionalità “multisearch” (o ricerca multipla).

Per chi non lo sapesse, Google Lens è un app di riconoscimento immagini sviluppata da Big G e lanciata sul mercato nel 2017. L’app permette di identificare un oggetto semplicemente inquadrandolo con la fotocamera, riconoscere etichette e testo, e mostrare diversi risultati di ricerca.

Per scaricare l’app dal Play Store, clicca qui.

La nuova funzionalità Multisearch sviluppata da Google permetterà agli utenti di effettuare ricerche combinando immagini e testo, porre domande su ciò che vede (o inquadra), o perfezionare le proprie ricerche aggiungendo parametri come colore, brand, o attributi visivi.

Di seguito vi indicheremo come funziona il multisearch di Google Lens e come potrebbe rivoluzionare le ricerche grazie all’utilizzo combinato con l’algoritmo MUM.

Multisearch Google Lens: come funziona

La nuova funzionalità Multisearch, che Google aveva già annunciato lo scorso Settembre in uno dei suoi eventi, è per il momento attiva soltanto negli Stati Uniti.

Si tratta di una versione beta basata esclusivamente su query in lingua inglese.

Per iniziare ad usarla, apri l’app Google Lens (disponibile per Android e iOS), fai tap sull’icona della fotocamera, e scatta una foto.

A questo punto, grazie alla funzionalità di ricerca multipla, puoi scorrere verso l’alto e premere il pulsante “Aggiungi alla tua ricerca”. Ora sarà possibile inserire del testo, in modo tale da migliorare i risultati finali della ricerca.

Possibile porre una domanda sull’oggetto o inserire altri dati relativi alla ricerca.

Esempi:

  1. Puoi scattare una foto ad un paio di scarpe e aggiungere il testo “blu” nella query di ricerca per ottenere come risultato tutti i paia di scarpe simili a quelli in foto, ma esclusivamente di colore blu.
  2. Puoi aggiungere il testo “quanto costano?” per ottenere come risultato i diversi prezzi proposti dagli store per quel modello di scarpe.
  3. Cattura un elegante vestito arancione e aggiungi la query “verde” per trovarlo in un altro colore.
  4. Scatta una foto del tuo set da pranzo e aggiungi la query “tavolino da caffè” per trovare un tavolo corrispondente.
  5. Scatta una foto della tua pianta di rosmarino e aggiungi la query “istruzioni per la cura”.

In Google, escogitiamo sempre nuovi modi per aiutarti a scoprire le informazioni che stai cercando, non importa quanto possa essere complicato esprimere ciò di cui hai bisogno. Ecco perché oggi stiamo introducendo un modo completamente nuovo di ricercare: utilizzare contemporaneamente testo e immagini. Con la ricerca multipla su Lens, puoi andare oltre la casella di ricerca e porre domande su ciò che vedi.

Multisearch e MUM: un’accoppiata vincente?

A quanto pare Google sarebbe pronta a migliorare il multisearch di Lens utilizzando il suo algoritmo MUM. Big G è al lavoro su come potrebbe utilizzare l’intelligenza artificiale di MUM e collegarla alla ricerca multipla.

Per ulteriori info su MUM, aggiornamenti Google ed altri algoritmi sviluppati da Big G ti consigliamo di leggere anche: “Algoritmo Google: tutti gli aggiornamenti [2003-2022]”.

Ricordiamo che MUM risponde in 75 lingue diverse, riesce a gestire 90.000 domande al secondo, è 1000 volte più potente di Google BERT.  L’algoritmo è in grado di gestire le query più complesse e rispondere con info precise e dettagliate.

Per gli utenti che cercano risposte complesse, MUM elaborerà automaticamente 8 query diverse e fornirà le relative risposte.

Così facendo l’utente si ritroverà con un’ampia panoramica dell’argomento cercato. La ricerca non si baserà più su un’unica risposta, bensì una serie di risposte collegate sempre all’argomento principale.

Ti è piaciuto questo articolo?

Clicca sulla stella per assegnare un voto!

Lascia un commento