OpenAI anuncia GPT-4

Trata sobre: IA OpenAI

OpenAI anuncia GPT-4, el sucesor de sus populares modelos GPT-3 y 3.5, y ha prometido un «rendimiento de nivel humano» en un paquete más creativo y estable que nunca.

Esta nueva iteración multimodal de su famosa I.A contiene avances interesantes, entre los que se encuentran la capacidad de procesar 24 idiomas mejor que los LLM de la competencia, incluido su antecesor GPT-3.5.

Un paso adelante

El nuevo modelo multimodal puede aceptar como entrada tanto texto como imágenes, y se ha afirmado que es más creativo, fiable y lleno de matices que su predecesor. Se ha demostrado que es capaz de procesar documentos, fotos y gráficos a un nivel similar al de la entrada de texto, y que descifra el contexto y el tono complejos de las entradas del usuario.

Esto ya se ha logrado hacer antes, pero serían los primeros avances que consigue hacer el equipo de OpenIA por su cuenta. En una serie de ejemplos, la I.A ha sido capaz de, entre otros, procesar información de un gráfico, traducir y resolver preguntas de un examen de francés, así como identificar lo que está mal o tiene gracia en una imagen.

En una demostración de GPT-4 retransmitida en directo, el presidente y cofundador de OpenAI, Greg Brockman, utilizó el modelo para traducir una foto de un boceto que había hecho de un sitio web en código HTML funcional.

Rendimiento humano

GPT-4 también ofrece un importante aumento de la precisión y la estabilidad en relación con los resultados de GPT-3 y GPT-3.5, ya que se situó en el 10% superior de los examinados en un examen de abogacía simulado, mientras que GPT-3.5 se situó en el 10% inferior. En su blog, OpenAI afirma que el modelo ha demostrado «un rendimiento similar al humano en varias pruebas profesionales y académicas«.

El nuevo modelo puede procesar documentos más largos que nunca, con cadenas aceptadas de más de 25.000 palabras, y ha permitido el análisis y la agregación de páginas web enteras.

«A primera vista, GPT-4 parece un avance importante con respecto a GPT-3. Gran parte de sus características son muy novedosas, por lo que tardaremos algún tiempo en comprender realmente dónde y cómo se materializarán sus mejoras con respecto a GPT-3».

Bern Elliot, vicepresidente de investigación y analista de Gartner.

Una I.A políglota

Otra novedad destacada fue su capacidad multilingüe más avanzada, es decir, su capacidad mejorada para manejar entradas en idiomas distintos del inglés; incluso, ha llegado a superar preguntas de respuesta múltiple en esos idiomas, mejorando la precisión y compresión del inglés respecto de su predecesor, GPT-3.5.

Esto podría mejorar drásticamente la automatización de documentos y las interacciones con los clientes, así como la traducción de publicaciones web.

Reducción de Alucinaciones

La direccionabilidad de los modelos se ha mejorado, e incluso podría ayudar a las empresas a personalizar las experiencias de los usuarios, y la reducción de las «alucinaciones» de GPT-4 en comparación con los modelos anteriores.

Las alucinaciones son un problema creciente de la I.A generativa, ya que las empresas luchan por mantener la creatividad en los modelos sin incitarles a inventar información cuando son necesarios hechos reales.

Mejoras de puntos débiles

OpenAI ha dejado claro que el modelo no está exento de limitaciones. Al igual que su predecesor, la mayoría de los datos utilizados para entrenar GPT-4 son anteriores a septiembre de 2021, lo que limita el alcance de sus conocimientos, y no puede aprenderlos a través de la exposición repetida.

Los desarrolladores contaron con la ayuda de 50 expertos en IT para poner a prueba el modelo e informar de sus puntos débiles, con el fin de reducir los resultados no deseados de GPT-3.5.

Microsoft adquiere Softomotive para reforzar Power Automate

«Hemos dedicado seis meses a hacer que GPT-4 sea más seguro y esté más alineado», afirma OpenAI en la página del producto de GPT-4.

«GPT-4 tiene un 82% menos de probabilidades de responder a solicitudes de contenido no permitido y un 40% más de probabilidades de producir respuestas basadas en hechos que GPT-3.5 en nuestras evaluaciones internas».

Con el apoyo de Microsoft

Para lograr estos resultados, OpenAI tuvo que rediseñar su pila de aprendizaje profundo desde cero, mientras que la asociación de Microsoft y la inversión de 10.000 millones de dólares ayudaron a la empresa a establecer un superordenador para facilitar un proceso de entrenamiento estable. El trabajo también ha ayudado a diferenciar GPT-4 de los modelos que le precedieron, tanto en complejidad como en fiabilidad.

En respuesta al anuncio, Microsoft ha revelado que su chatbot de Bing, que ha ayudado a impulsar el tráfico diario del buscador por encima de los 100 millones de usuarios por primera vez, ha estado funcionando en GPT-4 todo el tiempo.

«Si has utilizado la nueva vista previa de Bing en algún momento de las últimas cinco semanas, ya has experimentado una versión temprana de este potente modelo», escribió Yusuf Mehdi, vicepresidente corporativo y director de marketing de consumo de Microsoft.

Costes y monetización

GPT-4 costará 0,03 dólares (0,025 euros) por cada mil tokens de aviso, hasta un límite de 8.000 tokens, y 0,05 dólares (0,049 euros) por cada mil hasta un límite de 32.000 tokens.

Los suscriptores del nivel de pago de OpenAI, ChatGPT Plus, tienen acceso a GPT-4 a partir de ahora, mientras que aquellos que buscan acceso a la API de ChatGPT a GPT-4 se les ha pedido que se unan a una lista de espera. OpenAI ha declarado que se está dando acceso a la API a desarrolladores seleccionados a medida que la empresa amplía la capacidad de GPT-4.

GPT-4 ya está funcionando en empresas

OpenAI también ha revelado una serie de empresas asociadas que ya han adoptado GPT-4 en sus filas.

La empresa de servicios financieros Stripe ha utilizado GPT-4 para resumir sitios web de clientes potenciales, leer y explicar documentación compleja y detectar estafadores mediante análisis sintáctico.

Morgan Stanley ha encontrado en GPT-4 una base ideal para su chatbot interno, capaz de reunir la suma de conocimientos de la empresa a partir de toda su biblioteca de contenidos, incluidos los PDF.

La tecnología también se ha implementado como asistente virtual en la aplicación danesa Be My Eyes, que suele emparejar a usuarios ciegos o con baja visión con voluntarios a través de videollamadas.

La realidad siempre supera a la ficción

Desde describir el contenido de un frigorífico y recomendar una receta adecuada hasta guiar paso a paso a un usuario por un trayecto en tren, el modelo ha demostrado una capacidad clara para procesar datos visuales.

Es cuestión de tiempo que la perfección convierta la herramienta en una ayuda tan humana, que ni nos demos cuenta de que estamos interactuando con una máquina. La realidad termina superando a la ficción una vez más.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x