Google vient d’annoncer le lancement de son dernier modèle de langage de grande taille (Large Language Model/LLM), nommé Gemini 1.5. Ce modèle de langage est utilisé pour faire fonctionner le chatbot Gemini basé sur l’intelligence artificielle (IA), qui peut converser comme un humain.
Gemini 1.5 est une avancée par rapport à Gemini 1.0, qui a été précédemment lancé par Google. Ce modèle de langage a des capacités équivalentes à Gemini 1.0 Ultra, qui est la version la plus élevée de Gemini 1.0.
L’un des avantages de Gemini 1.5 est qu’il peut accepter une entrée d’environ 128 000 tokens dans une commande ou une requête. Les tokens sont des unités utilisées pour compter le nombre de caractères ou de mots traités par le chatbot Gemini. Un token peut signifier un caractère ou un mot dans une phrase.
Non seulement cela, Gemini 1.5 Pro, qui est une variante de Gemini 1.5, peut même traiter 1 million de tokens dans une seule requête. Google équivaut ces 1 million de tokens à une entrée de contexte équivalente à 1 heure de vidéo, 11 heures d’audio, 30 000 lignes de code de programmation, ou 700 000 mots dans une seule requête.
Avec ces capacités, Gemini 1.5 Pro peut traiter plus de demandes d’utilisateurs que d’autres modèles LLM existants, tels que Gemini 1.0 Pro, GPT-4 Turbo, et Claude 2.1. Google prétend également que Gemini 1.5 Pro a de meilleures capacités d’analyse, de catégorisation, et de résumé que d’autres LLM.
Gemini 1.5 peut être utilisé pour divers besoins commerciaux, tels que l’examen de rapports financiers de différentes divisions, l’évaluation de la qualité des films à partir de toutes les histoires et contextes, ou la création de contenu créatif comme des poèmes, des histoires, ou du code de programmation.
La version préliminaire (aperçu) de Gemini 1.5 Pro peut déjà être testée par les développeurs et les clients du cloud Google via l’API Gemini sur les plateformes AI Studio et Vertex AI. À l’avenir, ce modèle de langage remplacera le modèle Gemini 1.0 qui a été utilisé jusqu’à présent.
Google continuera à développer le LLM Gemini, et teste même l’entrée de requêtes avec une limite de 10 millions de tokens, soit 10 fois plus que Gemini 1.5 Pro.