Google acaba de anunciar el lanzamiento de su último modelo de lenguaje de gran tamaño (Large Language Model/LLM), llamado Gemini 1.5. Este modelo de lenguaje se utiliza para ejecutar el chatbot Gemini basado en inteligencia artificial (IA), que puede conversar como un humano.
Gemini 1.5 es una mejora de Gemini 1.0, que fue lanzado previamente por Google. Este modelo de lenguaje tiene capacidades equivalentes a Gemini 1.0 Ultra, que es la versión más alta de Gemini 1.0.
Una de las ventajas de Gemini 1.5 es que puede aceptar una entrada de alrededor de 128.000 tokens en un comando o consulta. Los tokens son unidades utilizadas para contar el número de caracteres o palabras procesadas por el chatbot Gemini. Un token puede significar un carácter o una palabra en una frase.
No solo eso, Gemini 1.5 Pro, que es una variante de enfoque de Gemini 1.5, incluso puede procesar 1 millón de tokens en una sola consulta. Google equipara estos 1 millón de tokens a una entrada de contexto equivalente a 1 hora de video, 11 horas de audio, 30.000 líneas de código de programación, o 700.000 palabras en una sola consulta.
Con estas capacidades, Gemini 1.5 Pro puede procesar más solicitudes de los usuarios que otros modelos LLM existentes, como Gemini 1.0 Pro, GPT-4 Turbo, y Claude 2.1. Google también afirma que Gemini 1.5 Pro tiene mejores capacidades de análisis, categorización, y resumen que otros LLMs.
Gemini 1.5 puede ser utilizado para diversas necesidades comerciales, como revisar informes financieros de diferentes divisiones, evaluar la calidad de las películas a partir de todas las historias y contextos, o crear contenido creativo como poemas, historias, o código de programación.
La versión preliminar (vista previa) de Gemini 1.5 Pro ya puede ser probada por los desarrolladores y los clientes de la nube de Google a través de la API de Gemini en las plataformas AI Studio y Vertex AI. En el futuro, este modelo de lenguaje reemplazará al modelo Gemini 1.0 que se ha utilizado hasta ahora.
Google continuará desarrollando el LLM Gemini, y está incluso probando la entrada de consultas con un límite de 10 millones de tokens, o 10 veces más que Gemini 1.5 Pro.