Según Leonardo Correa en Clarín, esta semana es la más importante del año para la Inteligencia Artificial (IA). En Mountain View (California), el corazón del Silicon Valley, este martes Google le dio impulso a sus softwares y servicios de IA.
En su imponente Shoreline Amphitheatre mostró sus novedades ante cientos de desarrolladores del mundo en una nueva edición de su encuentro anual Google I/O. Y lo hizo apenas 24 horas después de que ChatGPT lanzó su versión 4o, en la que mostró como su poderosa IA puede charlar con un ser humano de manera natural.
En una mañana fresca y algo soleada, a las 10 en punto, el CEO de Google Sundar Pichai presentó las novedades. El gigante de Internet quiere que el árbol no tape el bosque. Por eso integra Gemini, su herramienta rival de ChatGPT, a su buscador Web, que supera el 90 por ciento de las búsquedas. Así, intenta que en definitiva termine utilizándose más Gemini que el software de OpenAI.
Así fue que Pichai arrancó con las bondades de la dupla Gemini-Google buscador. «El año pasado respondimos miles de millones de consultas como parte de nuestra experiencia generativa de búsqueda. La gente lo está utilizando para realizar búsquedas de formas completamente nuevas y para hacer nuevos tipos de preguntas, consultas más largas y complejas, incluso realizar búsquedas con fotografías y obtener lo mejor que la Web tiene para ofrecer.
En la conferencia Pichai dijo que ya son 2 mil millones las personas que usan la IA de Google en sus diversos softwares y servicios. «Un ejemplo es Google Fotos, que lanzamos hace casi nueve años. Desde entonces, la gente lo ha utilizado para organizar sus recuerdos más importantes. Hoy eso equivale a más de 6 mil millones de fotos y videos subidos cada día», explicó.
Y dio un ejemplo de cómo se podrá interactuar con Google Fotos más Gemini. “Muéstrame cómo ha progresado la natación de Lucía”, se le puede preguntar.
«Aquí, Gemini va más allá de una simple búsqueda y reconoce diferentes contextos, desde nadar en la piscina hasta hacer snorkel en el océano, pasando por el texto y las fechas de sus certificados de natación. Y Fotos lo reúne todo en un resumen, para que puedas asimilarlo todo y revivir recuerdos increíbles una vez más. Lanzaremos Ask Fotos este verano y habrá más funciones en el futuro». De esta manera el usuario podrá ver cuando comenzaron las clases de natación y el progreso de la chica, simplemente con la lista de fotos.
Google está en la carrera de la IA con su Gemini Pro 1.5. Pero algunos desarrolladores quieren algo más rápido y rentable. Así que van a lanzar Gemini 1.5 Flash, un modelo más liviano creado para escalar. Está optimizado para tareas en las que la baja latencia y el costo son lo más importante. 1.5 Flash estará disponible en AI Studio y Vertex.
El sorprendente Proyecto Astra
Por su parte Proyecto Astra muestra comprensión multimodal y capacidades de conversación en tiempo real. Demostraron cómo con la cámara del teléfono se puede ir recorriendo una casa e ir preguntándole a Gemini cuestiones diversas. Y diferencia un problema en un texto de papel de seres vivos o de artículos personales.
Es decir que se le pueden hacer preguntas, y el software reconoce vía la cámara de qué le están hablando. Y lo sorprendente es que para pasar de la lectura de un texto en un cuaderno a algo animado en el ambiente no necesita resetearse o cambiar de sesión. Lo hace con total naturalidad, como cuando una persona lee palabras escritas de un papel y luego levanta la vista y habla con una persona. Para Gemini es lo mismo también.
Hace menos de un mes, el 30 de abril, Google anunció la disponibilidad en la Argentina y en otros países de Gemini, la app que permite un acceso directo a su inteligencia artificial desde el celular.
En rigor, Gemini ya tenía su versión en español en la Web, pero desde hace dos semanas es posible llevar esta inteligencia artificial en el teléfono como app.
Como con ChatGPT o Copilot, es posible hacer consultas complejas a Gemini, pedir contexto y seguir una conversación de múltiples temas, recibiendo las respuestas como un texto elaborado, a diferencia del Asistente de Google, que suele dar como respuesta un link donde hay más datos.
La noticia no hizo tanto ruido pero es muy relevante. Es que Google ya hace rato que busca recuperar terreno en la carrera de la IA frente a ChatGPT, que por diversos motivos tomó la delantera. Y lo hace incorporando Gemini primero a su sistema operativo Android, que usan la gran mayoría de los móviles del mundo.
Google I/O, un clásico
La primera versión de Android se anunció en el primer Google I/O, en 2008, “con la finalidad de construir un ecosistema tecnológico único y abierto para dispositivos móviles, democratizando a su vez el acceso a Internet a todas las personas”, dijo la empresa. Fue en el centro de convenciones Moscone, en San Francisco.
Otros de los hitos de este encuentro se dio en 2015, cuando se presentó Google Fotos para que las personas puedan organizar y almacenar sus fotos y videos en un mismo lugar.
En 2017 se lanzó Google Lens, una herramienta que facilita la interacción del mundo virtual con el entorno real. Su creación dió paso a nuevas funcionalidades como búsqueda múltiple y Circle to Search, abriendo puertas hacia búsquedas en línea más intuitivas, naturales y prácticas.
En 2023, llegó Search Labs, una herramienta que le permite a los usuarios interactuar con funciones experimentales del Buscador que integran las capacidades de la Inteligencia Artificial generativa y proporcionan comentarios para mejorar los productos de Google. La Experiencia Generativa de Búsqueda (SGE) ya está disponible en 7 idiomas y en más de 120 países.