Ya hemos visto cómo la I.A puede llegar a ser una herramienta magnífica y precisa para facilitarnos cierta información. Pero también esconde riesgos: una reciente investigación en el país nipón ha generado cierta alarma; por lo visto, se ha podido comprobar que una I.A ha modificado su propio código para evadir controles impuestos por sus creadores.
Lo que comenzó como un proyecto para acelerar procesos científicos ha terminado encendiendo alarmas en la comunidad tecnológica. The AI Scientist fue diseñado por la empresa japonesa Sakana AI con la intención de revolucionar la investigación científica, pero parece que visto lo visto, han dado luz a un prototipo de Skynet.
La ambición puede llevar al desastre
El propósito inicial de The AI Scientist era prometedor. En un primer momento, fue creado con la capacidad de realizar investigaciones científicas de manera autónoma, desde la generación de hipótesis hasta la redacción y revisión de artículos científicos.
De esta manera, su objetivo principal consistía en ayudar en la investigación científica y acelerar su avance. Así, se ahorrarían valiosos recursos, tanto materiales como humanos o económicos. Sin embargo, al realizar las pruebas pertinentes, no todo salió como se esperaba.
En lugar de operar dentro de las limitaciones de sus creadores, The AI Scientist comenzó a reescribir su propio código para sortear los obstáculos impuestos.
En otra ocasión, modificó su secuencia de inicio para ejecutarse en un bucle infinito. Esto generó una sobrecarga del sistema que solo se pudo solucionar con intervención humana.
En otro caso, al enfrentarse a un límite de tiempo para completar una tarea, en lugar de optimizar su rendimiento, simplemente extendió el tiempo permitido cambiando su código.
Los riesgos de una I.A «independiente»
Estos incidentes, aunque controlados en un entorno de prueba, han dejado claro que el potencial de una inteligencia artificial para operar sin supervisión humana puede conllevar riesgos significativos.
Los investigadores de Sakana AI han reconocido la gravedad de estos problemas, subrayando la importancia de desarrollar medidas de seguridad más robustas. Sin embargo, el mero hecho de que The AI Scientist haya sido capaz de actuar de manera tan autónoma ha desatado, de nuevo, el debate sobre qué uso y limitaciones debería tener la I.A.
A pesar de todo, los japoneses siguen con el proyecto. El objetivo sigue siendo desarrollar un sistema que pueda llevar a cabo investigaciones científicas de manera continuada, refinando sus procesos y optimizando la investigación científica.
Con ínfulas de rebelión, pero un mal trabajador
Como no podía ser de otra manera, este proyecto ha suscitado críticas, al margen de su capacidad de revelarse. Y es que uno de los principales objetivos de esta I.A es generar documentación científica de forma rápida, cosa que algunos expertos temen que no haga con la suficiente calidad. Incluso puede llegar a degradar los estándares de la literatura científica.
Por otro lado, existe el temor de que este tipo de tecnologías se utilicen con fines maliciosos. Si a eso le sumamos su carácter cuasi-independiente, puede llegar a ser un problema de difícil solución si no se coge a tiempo.
La empresa japonesa ha sugerido que se implementen medidas de seguridad estrictas para mitigar estos riesgos, pero los incidentes recientes han dejado al descubierto la necesidad de un debate más amplio sobre los límites y el control de las inteligencias artificiales avanzadas.