Google I/O 2022: los avances de Google en inteligencia artificial y aprendizaje automático, explicados

Google I/O 2022: los avances de Google en inteligencia artificial y aprendizaje automático, explicados

Googlequien sostuvo su Conferencia de desarrolladores de E/S 2022 miércoles tarde, ha doblado sobre el desarrollo de la inteligencia artificial (IA) y el aprendizaje automático (ML). No solo se enfoca en la investigación, sino también en el desarrollo de productos.

Una de las áreas de trabajo de Google es hacer que sus productos, especialmente los de comunicación, sean más “matizados y naturales”. Esto incluye el desarrollo y la implementación de nuevos modelos de procesamiento del lenguaje.

Mirá lo que anunció la compañía:

Cocina de prueba de IA

Luego de lanzar LaMDA (Language Model for Dialog Applications) el año pasado, que permitía a Google Assistant tener conversaciones más naturales, Google anunció LaMDA 2 y AI Test Kitchen, que es una aplicación que dará acceso a este modelo a los usuarios.

AI Test Kitchen permitirá a los usuarios explorar estas funciones de IA y les dará una idea de lo que LaMDA 2 es capaz de hacer.

Google lanzó AI Test Kitchen con tres demostraciones: la primera, llamada «Imagine It», permite a los usuarios sugerir una idea de conversación y el modelo de procesamiento del lenguaje de Google luego regresa con «descripciones imaginativas y relevantes» sobre la idea. El segundo, llamado «Háblalo», asegura que el modelo de lenguaje se mantenga en el tema, lo que puede ser un desafío. La tercera plantilla, llamada «List It Out», ofrecerá una lista potencial de tareas pendientes, cosas a tener en cuenta o consejos profesionales para una tarea determinada.

Modelo de lenguaje Pathways (PaLM)

PaLM es un nuevo modelo para el procesamiento del lenguaje natural y la IA. Según Google, este es su modelo más grande hasta la fecha y se entrenó en 540 mil millones de parámetros.

READ  Otros cambios importantes que vienen a los controles de medios globales de su navegador Chrome

Por ahora, el modelo puede responder problemas de matemáticas o explicar un chiste, gracias a lo que Google describe como una cadena de pensamiento, lo que le permite describir problemas de varios pasos como una serie de pasos intermedios.

Un ejemplo que se mostró con PaLM fue el modelo de IA respondiendo preguntas en bengalí e inglés. Por ejemplo, Sundar Pichai, CEO de Google y Alphabet, le preguntó a la modelo sobre los ingredientes de pizza populares en Nueva York y la respuesta apareció en bengalí, aunque PaLM nunca vio frases paralelas en el idioma.

La esperanza de Google es extender estas capacidades y técnicas a más idiomas y otras tareas complejas.

Multibúsqueda en Lens

Google también anunció nuevas mejoras en su herramienta Lens Multisearch, que permitirá a los usuarios buscar con solo una imagen y unas pocas palabras.

«En la aplicación de Google, puedes buscar con imágenes y texto al mismo tiempo, como si pudieras señalar algo y preguntarle a un amigo al respecto», dijo la compañía.

Los usuarios también podrán usar una imagen o captura de pantalla y agregar «cerca de mí» para ver opciones de restaurantes locales o minoristas que tengan ropa, artículos para el hogar y comida, entre otras cosas.

Con un avance llamado «exploración de escena», los usuarios podrán usar Multisearch para desplazar su cámara y obtener instantáneamente información sobre múltiples objetos en una escena más grande.

Mapas de Google inmersivos

Google ha anunciado una forma más inmersiva de usar su aplicación Maps. Usando visión por computadora e inteligencia artificial, la compañía fusionó miles de millones de Street View e imágenes aéreas para crear un rico modelo digital del mundo. Con la nueva vista inmersiva, los usuarios pueden experimentar el aspecto de un barrio, punto de referencia, restaurante o lugar popular.

READ  Microsoft comienza a probar el nuevo navegador Edge Chromium en las consolas Xbox

Soporte para nuevos idiomas en Google Translate

Google también agregó 24 nuevos idiomas para traducir, incluidos asamés, bhojpuri, konkani, sánscrito y mizo. Estos idiomas se agregaron mediante «Traducción automática Zero-Shot», donde un modelo de aprendizaje automático solo ve texto monolingüe, lo que significa que aprende a traducir a otro idioma sin ver ningún ejemplo.

Sin embargo, la empresa señaló que la tecnología no es perfecta y que seguirá mejorando estos modelos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *