¿ Sabías qué? – Qué puede pasar al detener el desarrollo de la I.A

¿Estamos avanzando ciegamente hacia un futuro apocalíptico? ¿Es este futuro un escenario en el que el desarrollo de la inteligencia artificial (I.A) se descontrola? Estas y otras cuestiones que se plantean están surgiendo ante el (al parecer) imparable avance de la I.A next-gen, pero… ¿Qué puede pasar al detener el desarrollo de la I.A? ¿Y cuáles serían sus consecuencias?

Evolución, ¿insegura?

Muchos, incluidos los autores de una carta abierta publicada a principios de este año, creen que el ritmo al que avanza la I.A generativa es inseguro, con consecuencias imprevistas de la talla de ChatGPT apenas tenidas en cuenta y una regulación incapaz de seguir el ritmo.

La carta apunta a la propia conclusión de OpenAI de que «puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas».

Como ocurre con todas las tecnologías no probadas, siempre habrá consecuencias imprevistas y, en esta fase inicial, puede que ya sea demasiado tarde incluso para imponer una pausa, aunque la industria, los clientes y los reguladores estén unánimemente de acuerdo en que eso es lo que hace falta.

Detener el tren desbocado del avance de la I.A

La tecnología siempre ha ido por delante de la normativa. Sin embargo, muchos creen que si se permite que los sistemas de I.A se desarrollen sin control, las consecuencias podrían tener profundos efectos adversos (bien usada, es una ayuda que muchos no esperaban fuera tan efectiva) en la sociedad, poniendo en peligro la seguridad y la privacidad de las personas.

«Suponiendo que se lograra esta pausa, se crearía un respiro en el que podrían desarrollarse la política y la normativa necesarias para salvaguardar el desarrollo de la IA«, afirma Mark Rodseth, vicepresidente de tecnología para EMEA de CI&T.

«Se trata de un reto inmenso, debido a la velocidad de los avances de la I.A y a la necesidad de que la política esté preparada para el futuro, sea aplicable internacionalmente y se pueda hacer cumplir en la práctica«.

El uso amoral de la tecnología también tiene una larga historia. Aunque las herramientas y los sistemas se crean con fines legítimos, pueden corromperse, y los gobiernos quieren adelantarse antes de que la I.A industrial se vuelva inmanejable.

Para los firmantes de la carta abierta, el riesgo de abuso es alarmante si, por ejemplo, los ciberdelincuentes o los estados autoritarios empezaran a desplegar modelos avanzados de I.A.

«Poner una pausa en el desarrollo de la IA obligaría a los proveedores a abordar su deber de diligencia», afirma Filip van Elsen, profesor universitario, experto en I.A y codirector global de tecnología de Allen and Overy.

Una cuestión de regulación internacional

Los reguladores han sido a menudo reactivos a la hora de introducir normativas. Detener el desarrollo de la IA sería más proactivo, ya que aún no hemos experimentado colectivamente violaciones de la privacidad.

Pero hay áreas de preocupación, como los deepfakes. O la idea de que la I.A generativa haya sido entrenada con material protegido.

«El reciente llamamiento a pausar el desarrollo de la I.A generativa tiene su origen en la implicación de que, quizá no podamos controlar el impacto de un despliegue más amplio de grandes modelos lingüísticos (LLM), añade Greg Benson, científico jefe de SnapLogic y profesor de informática en la Universidad de San Francisco.

La carrera armamentística de la I.A gana velocidad

El Instituto Nacional de Normas y Tecnología (NIST) ya dispone de un marco para la evaluación de riesgos de la I.A en Estados Unidos, y el gobierno británico también publicó recientemente un libro blanco que aborda muchas de las cuestiones que destaca la carta abierta. Los cinco principios esbozados guiarán el desarrollo de los sistemas de I.A para garantizar que se crean para ser seguros, transparentes, dignos de confianza y justos.

«La IA tiene el potencial de hacer avanzar la ciencia y beneficiar a la humanidad de numerosas maneras, desde la lucha contra el cambio climático hasta una mejor comprensión y tratamiento de las enfermedades», afirma Lila Ibrahim, COO de DeepMind y miembro del Consejo de IA del Reino Unido.

El enfoque basado en el contexto propuesto por el Reino Unido ayudará a que la regulación siga el ritmo del desarrollo de la IA y mitigue los riesgos futuros.

¿Podría pausarse el desarrollo de la IA?

Muchos de los sistemas en desarrollo están patentados, y el entorno de cumplimiento en el que evolucionan aún no se ha definido. También es poco probable que una empresa que ha realizado importantes inversiones haga caso de cualquier mandato de pausa.

Para Greg Benson, de SnapLogic, ya es demasiado tarde. «A estas alturas es prácticamente imposible hacer una pausa», afirma. «La tecnología avanza demasiado rápido y cada vez es más accesible para que los particulares puedan crear y gestionar sus propios LLM».

Entonces, ¿cómo se aplicaría esa pausa?

En lugar de una pausa, se podrían restringir los tipos de industrias y aplicaciones en los que se pueden utilizar los LLM. Sin embargo, el avance y uso de la tecnología basada en LLM no parece que se detenga en este punto.

Y es que, como es lógico, las empresas se sienten cada vez más atraídas por la I.A generativa. Además, el atractivo para los desarrolladores de ser los primeros en llegar al mercado y dar forma a la industria de la I.A, significa que cualquier pausa se convierte en algo secundario.

«El reto es que los gobiernos, los proveedores de I.A y las empresas se reúnan para evaluar cómo les afecta el riesgo a ellos y al mundo en general», concluye van Elsen. «Con una pausa a corto plazo, el inconveniente es que las fuentes de ingresos se agotan. Sin embargo, la falta de regulación será probablemente el mayor riesgo para los usuarios de IA, si más adelante se producen litigios en torno al uso indebido o los daños causados por la IA, y esto podría resultar muy costoso».

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x