Google ha appena annunciato il lancio del suo ultimo modello di linguaggio di grande dimensione (Large Language Model/LLM), chiamato Gemini 1.5. Questo modello di linguaggio viene utilizzato per far funzionare il chatbot Gemini basato sull’intelligenza artificiale (IA), che può conversare come un essere umano.
Gemini 1.5 è un avanzamento rispetto a Gemini 1.0, che è stato precedentemente rilasciato da Google. Questo modello di linguaggio ha capacità equivalenti a Gemini 1.0 Ultra, che è la versione più alta di Gemini 1.0.
Uno dei vantaggi di Gemini 1.5 è che può accettare un input di circa 128.000 token in un comando o una query. I token sono unità utilizzate per contare il numero di caratteri o parole elaborate dal chatbot Gemini. Un token può significare un carattere o una parola in una frase.
Non solo, Gemini 1.5 Pro, che è una variante di Gemini 1.5, può persino elaborare 1 milione di token in una singola query. Google equipara questi 1 milione di token a un input di contesto equivalente a 1 ora di video, 11 ore di audio, 30.000 righe di codice di programmazione, o 700.000 parole in una singola query.
Con queste capacità, Gemini 1.5 Pro può elaborare più richieste degli utenti rispetto ad altri modelli LLM esistenti, come Gemini 1.0 Pro, GPT-4 Turbo, e Claude 2.1. Google afferma anche che Gemini 1.5 Pro ha migliori capacità di analisi, categorizzazione, e sintesi rispetto ad altri LLM.
Gemini 1.5 può essere utilizzato per vari bisogni commerciali, come la revisione di rapporti finanziari da diverse divisioni, la valutazione della qualità dei film da tutte le storie e contesti, o la creazione di contenuti creativi come poesie, storie, o codice di programmazione.
La versione preliminare (anteprima) di Gemini 1.5 Pro può già essere testata da sviluppatori e clienti del cloud Google tramite l’API Gemini sulle piattaforme AI Studio e Vertex AI. In futuro, questo modello di linguaggio sostituirà il modello Gemini 1.0 che è stato utilizzato fino ad ora.
Google continuerà a sviluppare il LLM Gemini, e sta persino testando l’input di query con un limite di 10 milioni di token, ovvero 10 volte più di Gemini 1.5 Pro.