Google quiere potenciar su I.A Bard, y se acerca a GPT-4

En la carrera por desarrollar la mejor I.A, Google se ha puesto las pilas y no quiere quedarse atrás; ahora, el buscador quiere potenciar su I.A Bard, y se acercará cada vez más a GPT-4 gracias a un nuevo modelo y actualizaciones clave. Así, esperan estar a la altura de lo que ofrecen los últimos avances de OpenAI.

Un modelo mejorado

Un modelo de I.A central más potente y capacidades de chatbot multimodal, son dos de las principales revelaciones de su conferencia anual I/O, centrada principalmente en la I.A junto con algunos anuncios de hardware. En dicha conferencia, figura PaLM 2, un nuevo modelo de lenguaje de gran tamaño (LLM) y entrenado en más de 100 idiomas.

Por otro lado, Google ha anunciado nuevas actualizaciones de su chatbot Bard, al que se unirá un modelo más grande conocido como «Multi-Bard«, capaz de tener un razonamiento multimodal y complejo, con mejores dotes matemáticas.

Los modelos de I.A generativa multimodal, un tema ya tratado en otros artículos de Cloudmasters, pueden procesar entradas como imágenes o sonidos, además de las entradas de texto en lenguaje natural a las que los usuarios se han acostumbrado.

Un ejemplo notable de modelos multimodales es el nuevo GPT-4 de OpenAI, capaz de analizar texto de imágenes, resumir datos gráficos e identificar elementos en una secuencia de vídeo para su uso en visión computerizada.

De hecho, OpenAI afirma que GPT-4 superó a PaLM (subproducto de I.A de Google) en la prueba comparativa Multi-task Language Understanding (MMLU), con una puntuación del 86% frente al 71% de PaLM. Su objetivo era proporcionar una comprensión del lenguaje natural más compleja que los modelos anteriores y producir respuestas textuales más detalladas.

Punto de inflexión para Google

Hasta la fecha, Google no ha utilizado PaLM para sus productos de cara al cliente, como su chabot Bard, pero ha logrado situarse en una posición competitiva con productos como ChatGPT.

El modelo se comparó favorablemente con el modelo de lenguaje GPT-3 de OpenAI en el momento de su lanzamiento, y superó a sus contemporáneos en pruebas como LaMDA, el modelo que subyace a la iteración actual de Bard de Google.

En una entrevista al medio The New York Times, Pichai dijo que Bard pronto sería impulsado por PaLM en lugar del antiguo modelo LaMDA en el que se basa actualmente.

«Muy pronto actualizaremos Bard a algunos de nuestros modelos PaLM más capaces, lo que aportará más capacidades, ya sea de razonamiento o de codificación«.

Sundar Pichai, CEO de Alphabet.

Respuestas más objetivas y naturales

Esto podría traducirse en una reducción de las «alucinaciones«, el término utilizado para describir la ficción producida por los chatbots en lugar de las respuestas objetivas, como en el caso de GPT-4. En el caso de Bard, esto podría suponer un aumento de la productividad y ser especialmente útil.

Las mejoras también podrían incluir una mayor capacidad para mantener una conversación con un usuario a lo largo de varias solicitudes o sesiones, lo que podría resultar fundamental para el objetivo de Google de integrar sus herramientas de I.A en su motor de búsqueda.

¿Cómo ayuda el Cloud a la difusión de la vacuna del COVID-19?

A mediados de abril, Bard obtuvo capacidades de generación y traducción de código, y las pruebas realizadas indican que ahora puede competir con GPT-4 y el chat de Bing en la generación y traducción de código.

En la actualidad, los usuarios pueden pedir a Bard que haga el código más eficiente, incluido el código que el modelo ha generado, y en estas líneas, el modelo podría mejorarse para presentar una salida de código más eficiente.

Una colaboración para potenciar recursos

Aún no está claro si el nuevo Bard multimodal será una derivación directa de PaLM 2, aunque esto tendría sentido si el modelo es un sucesor directo de PaLM, del mismo modo que GPT-4 lo fue de GPT-3.

Google ha estado trabajando para mejorar el rendimiento de Bard, después de un lanzamiento decepcionante en el que el chatbot respondió incorrectamente a una pregunta de demostración, lo que llevó a las acciones de Google a caer un 7%.

El consejero delegado de Alphabet, Sundar Pichai, anunció en abril que Google desarrollaría sus propios modelos de I.A multimodal, como parte de un impulso concertado para lograr un mayor rendimiento de la I.A.

Para potenciar y dar credibilidad a estas buenas noticias, el anuncio se produjo junto con la noticia de que DeepMind (durante mucho tiempo una filial de Google) se combinaría con Google Brain para formar una nueva división unificada de I.A conocida como Google DeepMind.

El CEO de DeepMind, Demis Hassabis, dirigirá la nueva unidad, y fue anunciado por Pichai como el hombre que dirigiría los «sistemas generales de I.A más capaces y responsables» de Google. De esta manera, la carrera por la creación de la mejor I.A sigue dando sus primeros pasos hacia una evolución sin precedentes, y de alguna manera, incierta.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x