TECNOLOGIA, INTERNET TRENDS, GAMING, BIG DATA

Google aggiunge una nuova funzionalità AI a Lens

Google aggiunge una nuova funzionalità AI a Lens

By auroraoddi

Google ha recentemente introdotto un’aggiunta AI-powered alle sue capacità di ricerca visiva in Google Lens. Questa nuova funzionalità consente agli utenti di puntare la fotocamera del proprio dispositivo Android verso un oggetto o di caricare una foto o uno screenshot in Lens e porre una domanda su ciò che stanno osservando per ottenere risposte attraverso l’AI generativa.

Un aggiornamento alle capacità di ricerca di Lens

L’aggiornamento alle funzionalità di multisearch di Lens consente agli utenti di effettuare ricerche utilizzando sia il testo che le immagini contemporaneamente. In passato, queste ricerche avrebbero mostrato agli utenti altre corrispondenze visive, ma con il lancio odierno, si otterranno risultati alimentati dall’IA che offrono approfondimenti.

Come esempio, Google suggerisce che questa funzionalità potrebbe essere utilizzata per apprendere di più su una pianta scattando una foto e chiedendo “Quando devo annaffiarla?”. Invece di mostrare semplicemente altre immagini della pianta, Lens identifica la pianta stessa e fornisce all’utente informazioni su quanto spesso annaffiarla, ad esempio “ogni due settimane”. Questa funzionalità si basa su informazioni reperite dal web, incluse informazioni trovate su siti web, siti di prodotti e video.

Cerca con un gesto

Questa funzionalità di Lens funziona anche con i nuovi gesti di ricerca di Google, chiamati “Circle to Search“. Ciò significa che è possibile avviare queste ricerche alimentate dall’IA con un gesto, quindi porre una domanda sull’oggetto che hai cerchiato, scarabocchiato o segnalato come di interesse per apprendere di più.

Tuttavia, Google ha specificato che, sebbene la funzionalità di multisearch di Lens offra approfondimenti alimentati dall’IA, non si tratta dello stesso prodotto del suo esperimento GenAI Search SGE (Search Generative Experience), che rimane disponibile solo su richiesta.

Lancio negli Stati Uniti in inglese

Le descrizioni alimentate dall’IA per il multisearch di Lens sono state lanciate per tutti negli Stati Uniti in inglese a partire da oggi. A differenza di alcuni degli altri esperimenti di IA di Google, questa funzionalità non è limitata ai Google Labs. Per utilizzare questa funzionalità, è sufficiente toccare l’icona della fotocamera di Lens nell’app di ricerca di Google per iOS o Android, o nella casella di ricerca del proprio telefono Android.

Analogamente a “Circle to Search“, questa aggiunta mira a mantenere la rilevanza della ricerca di Google nell’era dell’IA. Mentre il web di oggi è pieno di contenuti ottimizzati per l’indicizzazione SEO, “Circle to Search” e l’abilità di Lens di fornire approfondimenti alimentati dall’IA cercano di migliorare i risultati di ricerca attingendo a una rete di conoscenza, tra cui molte pagine web presenti nell’indice di Google, ma presentando i risultati in un formato diverso.

AI: da usare con le pinze

Tuttavia, affidarsi all’IA significa che le risposte potrebbero non essere sempre accurate o rilevanti. Le pagine web non sono un’enciclopedia, quindi le risposte sono accurate solo quanto le informazioni di base e le capacità dell’IA di rispondere a una domanda senza “allucinare” (ovvero fornire risposte false quando non sono disponibili risposte reali).

Google sottolinea che i suoi prodotti GenAI, come il suo “Google Search Generative Experience“, ad esempio, citano le proprie fonti per consentire agli utenti di verificare le risposte. E sebbene SGE rimanga nei laboratori di Google, l’azienda ha annunciato che inizierà a introdurre progressi nell’IA generativa in modo più ampio, quando rilevante, come sta facendo ora con i risultati di multisearch.

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading

Scopri di più da Syrus

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continue reading