¡Atención, usuario! Gemini 2.0 ya está disponible para todas las personas
El mes pasado, Google dio inicio a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — su modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizaron 2.0 Flash Thinking Experimental en Google AI Studio, lo que mejoró su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.
Y la semana pasada, se puso una versión actualizada de 2.0 Flash a disposición de todos los usuarios en la aplicación Gemini para escritorio y dispositivos móviles, ayudando a todos a descubrir nuevas formas de crear, interactuar y colaborar con Gemini.
Hoy, hicieron que la versión actualizada de Gemini 2.0 Flash esté disponible de forma general a través de la API de Gemini en Google AI Studio y Vertex AI. Los desarrolladores ahora pueden crear aplicaciones de producción con 2.0 Flash.
También lanzaron una versión experimental de Gemini 2.0 Pro, su mejor modelo hasta ahora para rendimiento de codificación y prompts complejos. Estará disponible en Google AI Studio y Vertex AI, y en la aplicación Gemini para usuarios de Gemini Advanced.
Google está lanzando un nuevo modelo, Gemini 2.0 Flash-Lite, este modelo más eficiente hasta la fecha, está en versión preliminar pública en Google AI Studio y Vertex AI.
Finalmente, 2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini en el menú desplegable de modelos para escritorio y dispositivos móviles.
Todos estos modelos contarán con entrada multimodal y salida de texto en su lanzamiento, con más modalidades generales en los próximos meses. Más información y detalles sobre precios, en el blog post oficial de Google para Desarrolladores. De cara al futuro, se está trabajando en más actualizaciones y capacidades mejoradas para la familia de modelos Gemini 2.0.
2.0 Flash: una nueva actualización disponible para todos
Presentado por primera vez en I/O 2024, la serie de modelos Flash es popular entre los desarrolladores como un modelo robusto y potente, ideal para tareas de alto volumen y alta frecuencia a gran escala, y capaz de hacer razonamientos multimodales a través de grandes cantidades de información con una ventana de contexto de 1 millón de tokens.
2.0 Flash ahora está disponible para más personas a través de los productos de IA, junto con un rendimiento mejorado en puntos de referencia clave como LiveCodeBench y MMMU, con generación de imágenes y conversión de texto a voz próximamente.
Los usuarios pueden probar Gemini 2.0 Flash en la aplicación Gemini o en la API de Gemini en Google AI Studio y Vertex AI. Los detalles de precios se pueden encontrar en el blog post oficial de Google para Desarrolladores.
2.0 Pro Experimental
A medida que se compartieron las primeras versiones experimentales de Gemini 2.0, como Gemini-Exp-1206, Google recibió excelentes comentarios de los desarrolladores sobre sus puntos fuertes y los mejores casos de uso, como la codificación.
Hoy, Google lanzó una versión experimental de Gemini 2.0 Pro que responde a esos comentarios. Tiene el mejor rendimiento de codificación y la capacidad de manejar indicaciones complejas, con mejor comprensión y razonamiento del conocimiento del mundo, que cualquier modelo que se haya lanzado hasta ahora. Viene con una ventana de contexto más grande, de 2 millones de tokens, lo que le permite analizar y comprender grandes cantidades de información de manera integral, además de la capacidad de usar herramientas como Google Search y ejecución de código.
Gemini 2.0 Pro ya se encuentra disponible como modelo experimental para los desarrolladores en Google AI Studio y Vertex AI y para los usuarios de Gemini Advanced en el menú desplegable de modelos para escritorio y dispositivos móviles.
2.0 Flash-Lite
Google recibió muchos comentarios positivos sobre el precio y la velocidad de 1.5 Flash. Buscan mejorar la calidad, sin dejar de mantener el costo y la velocidad. Así que presentaron 2.0 Flash-Lite, un nuevo modelo que tiene mejor calidad que 1.5 Flash, a la misma velocidad y costo. Supera al 1.5 Flash en la mayoría de los puntos de referencia.
Al igual que 2.0 Flash, tiene una ventana de contexto de 1 millón de tokens y entrada multimodal. Por ejemplo, puede generar un pie de foto relevante de una línea para alrededor de 40.000 fotos únicas, con un costo inferior a un dólar en la opción paga de Google AI Studio.
Gemini 2.0 Flash-Lite está disponible en Google AI Studio y Vertex AI en vista previa pública.
Trabajo en responsabilidad y seguridad
A medida que la familia de modelos Gemini se vuelve más capaz, se continuará invirtiendo en medidas sólidas que permitan un uso seguro y protegido. Por ejemplo, la línea Gemini 2.0 se construyó con nuevas técnicas de aprendizaje por refuerzo que utilizan al propio Gemini para criticar sus respuestas. Esto resultó en una retroalimentación más precisa y específica y, a su vez, mejoró la capacidad del modelo para manejar prompts sensibles.
Pronto, se compartirán detalles sobre el uso de técnicas adicionales de red teaming que desarrollará Google para evaluar los riesgos de seguridad, incluyendo la inyección indirecta de prompts, un tipo de ataque cibernético que involucra a atacantes que ocultan instrucciones maliciosas en los datos.