Il periodo di annunci da parte di Google continua a essere caratterizzato da importanti novità nel settore dell’intelligenza artificiale, con particolare attenzione al progetto Gemini. Il colosso di Mountain View ha recentemente presentato una serie di aggiornamenti significativi, tra cui nuove funzionalità per l’app di Gemini, il modello 2.0 Flash Thinking Experimental e il nuovo Deep Research. Queste innovazioni, annunciate il 13 marzo 2025, promettono di migliorare l’esperienza degli utenti e ampliare le capacità dell’assistente virtuale.
Il 13 marzo 2025, attraverso un post sul blog The Keyword, Google ha rivelato una serie di aggiornamenti per l’app di Gemini, utilizzata quotidianamente su smartphone, tablet e computer. L’azienda ha dichiarato: “Oggi stiamo apportando importanti miglioramenti alle prestazioni e alla disponibilità delle nostre funzionalità Gemini più popolari e aggiungendo una nuova funzionalità che renderà Gemini ancora più personale e utile”. Questi miglioramenti mirano a rendere l’assistente virtuale non solo più efficiente, ma anche più personalizzato per soddisfare le esigenze degli utenti.
Con l’aggiornamento del 13 marzo, Google ha rilasciato una nuova versione del modello 2.0 Flash Thinking Experimental, che ora include il supporto per il caricamento di file e altre funzionalità avanzate. Per gli utenti abbonati al servizio Advanced, è stata ampliata la finestra di contesto fino a un milione di token, consentendo una gestione più complessa delle informazioni e la risoluzione di problemi più articolati. Questo sviluppo rappresenta un passo avanti significativo nella capacità dell’assistente di elaborare richieste intricate.
Il 6 marzo 2025, era emersa la notizia che la funzionalità Deep Research, introdotta da Google a dicembre 2024, sarebbe stata estesa a tutti gli utenti. Oggi, Google ha confermato che questa funzione è ora accessibile anche agli utenti standard, grazie al modello 2.0 Flash Thinking Experimental. Questo cambiamento permette a un pubblico più ampio di beneficiare delle potenzialità di ricerca avanzata, precedentemente riservate solo agli abbonati.
Google ha anche introdotto il modello Personalization (experimental), progettato per fornire risposte più personalizzate basate sulla cronologia di ricerca degli utenti. Questa nuova funzionalità, disponibile nell’app di Gemini, richiede il consenso degli utenti per accedere ai dati, ma mira a migliorare l’interazione con l’assistente, rendendolo più in grado di rispondere alle esigenze specifiche degli utenti. Nei prossimi mesi, il modello potrà connettersi ad altre app Google, offrendo approfondimenti ancora più dettagliati.
Il modello 2.0 Flash Thinking Experimental sta rendendo le app come Google Calendar, Note di Keep, Google Tasks e Google Foto più integrate e potenti. A partire dal 13 marzo 2025, gli utenti potranno utilizzare queste app per interagire con l’assistente, ricevendo suggerimenti e informazioni basate sui dati forniti.
In occasione del Google I/O 2024, Google ha lanciato le Gems, una funzionalità che consente di creare versioni personalizzate dell’assistente per scopi specifici. Originariamente riservata agli abbonati Advanced, questa funzione è ora accessibile anche agli utenti standard, ampliando notevolmente le possibilità di personalizzazione dell’assistente.
Il 13 marzo 2025, Google ha annunciato anche un’importante novità per Android Studio, con l’integrazione di Gemini in grado di trasformare i bozzetti di interfacce grafiche in codice. Questa nuova funzionalità, presentata nella versione Narwhal (canary), consente agli sviluppatori di allegare immagini ai prompt di Gemini, facilitando l’analisi di diagrammi tecnici e la creazione di codice corrispondente. Questa innovazione promette di aumentare l’efficienza e la creatività nel processo di sviluppo software.
Per ulteriori dettagli, Google ha pubblicato un post dedicato sul blog degli sviluppatori Android, fornendo informazioni aggiuntive su questa nuova funzionalità.