Google introduce nuove funzionalità IA per il chatbot Gemini
Google ha iniziato a distribuire nuove funzionalità di intelligenza artificiale per il suo chatbot, Gemini. Secondo quanto confermato da un portavoce dell’azienda a The Verge, Gemini sarà presto in grado di “vedere” il mondo attraverso lo schermo e la fotocamera dello smartphone. Questa opzione è simile alla modalità avanzata di ChatGPT, svelata da OpenAI alla fine del 2024.
Le novità di Gemini si concentrano principalmente su due aree: la lettura dello schermo e l’interpretazione dei flussi video in diretta. La funzione di lettura dello schermo consente al chatbot di analizzare e rispondere a domande relative a ciò che viene visualizzato sul display del dispositivo, aprendo nuove possibilità per l’assistenza contestuale. L’interpretazione dei flussi video permette all’IA di “leggere” i flussi video provenienti dalla fotocamera dello smartphone in tempo reale, fornendo risposte e suggerimenti basati su ciò che vede. Un esempio pratico è l’uso di Gemini per ricevere consigli sulla scelta del colore di vernice per un oggetto in ceramica.
L’aggiornamento di Gemini arriva quasi un anno dopo una dimostrazione in cui Google testava le capacità di Project Astra, un progetto di ricerca volto a sviluppare un assistente IA universale avanzato. La scoperta delle nuove funzioni che entreranno a far parte di Gemini Live, modalità con cui l’assistente di Google intrattiene conversazioni più naturali e fluide con gli utenti, è emersa grazie a una segnalazione sui forum di Reddit. Una persona avrebbe avuto accesso alla visione tramite un telefono a marchio Xiaomi.
Sembra che Google abbia iniziato a distribuire entrambe le funzionalità agli abbonati di Gemini Advanced come parte del piano Google One AI Premium. Queste innovazioni promettono di migliorare significativamente l’interazione degli utenti con il chatbot, rendendo le conversazioni più dinamiche e contestuali.
Fonte: Ansa
Ricevi le ultime attualità sul mondo tech!