¿Por qué la I.A no muestra signos de desaceleración?

La I.A next-gen está suponiendo todo un reto para la era actual de la informática; su naturaleza de crecimiento exponencial revela que estamos ante un hito de la tecnología, y cada vez irá a más. Por ello, la I.A no muestra ningún signo de desaceleración a medio ni largo plazo.

La computación es exponencial

La primera red neuronal artificial del mundo, Perceptron Mark I, fue desarrollada en 1957. Por aquel entonces, era una estructura modesta para los estándares actuales, con 1.000 neuronas artificiales que realizaban unas 700.000 operaciones.

Si avanzamos hasta hoy, el modelo lingüístico GPT-4 de OpenAI utiliza la asombrosa cifra de 21 septillones de operaciones para su entrenamiento, lo que pone de manifiesto el increíble progreso realizado en las capacidades computacionales.

En consonancia con la ley de Moore, la reducción del coste de la potencia de cálculo ha hecho cada vez más asequible el entrenamiento de modelos de I.A de mayor tamaño. Los desarrolladores de I.A gastan ahora millones, como Sam Altman, CEO de OpenAI, que afirmó haber invertido más de 100 millones de dólares en el entrenamiento de GPT-4.

Tales inversiones reportan enormes beneficios, lo que da lugar a modelos de I.A que se entrenan en computación. Gigantes de la I.A como OpenAI y Anthropic, respaldados por importantes inversiones de los gigantes tecnológicos, encabezan este movimiento.

Datos: el alma de la I.A

Además, los sistemas de I.A son esencialmente mecanismos de aprendizaje que modelan las relaciones dentro de sus datos de entrenamiento. Cuanto mayor sea el número de datos, mejor será el rendimiento del sistema de I.A.

Tomemos el ejemplo de Llama, un gran modelo lingüístico desarrollado por Meta. Llama se entrenó con aproximadamente mil millones de puntos de datos, lo que mejoró drásticamente la calidad de sus resultados en comparación con su predecesor, Perceptron Mark I, que sólo se entrenó con seis puntos de datos.

Las limitaciones en cuanto a la cantidad de datos que un sistema de I.A puede procesar eficientemente están moderadas por la disponibilidad de computación.

Curiosamente, las tendencias recientes sugieren que la cantidad de datos utilizados para entrenar sistemas de I.A está superando la creación de nuevos datos en Internet. Sin embargo, los desarrolladores de I.A son optimistas respecto a la superación de este reto, mediante la innovación y la búsqueda de formas de utilizar datos lingüísticos de menor calidad.

Algoritmos: sacar más de menos

Los algoritmos dictan la forma en que los sistemas de IA utilizan el cálculo disponible para modelar las relaciones entre los datos. Gran parte del progreso algorítmico se ha derivado del uso de la computación, lo que ha aumentado el rendimiento general de los sistemas de IA.

Es posible que los futuros avances algorítmicos también tengan que centrarse en compensar las limitaciones en la disponibilidad de datos.

Los expertos coinciden en que el ritmo de progreso, impulsado por el juego interconectado de la computación, los datos y los algoritmos, probablemente continuará sin obstáculos durante los próximos años, sin que la I.A muestre signos de desaceleración de ningún tipo.

Sin embargo, este rápido crecimiento ha suscitado inquietud por la posibilidad de un uso indebido.

3 1 vote
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x