Microsoft y otros crean CoSAI, que supervisa el desarrollo seguro de la I.A

Para garantizar que la tecnología de inteligencia artificial (IA) se desarrolle y utilice de forma segura, Microsoft y muchas otras empresas tecnológicas de renombre se han unido para crear la Coalición para una I.A Segura (CoSAI).

Poner límites a la I.A

El objetivo de la CoSAI es garantizar que los sistemas de I.A funcionen dentro de unos límites definidos por los valores humanos, promoviendo al mismo tiempo avances tecnológicos que beneficien a todos.

Según el anuncio, el propósito de CoSAI es crear un lugar de código abierto donde los desarrolladores puedan obtener ayuda y herramientas para crear sistemas de IA seguros desde el principio. El objetivo de CoSAI es sencillo: garantizar que los sistemas de inteligencia artificial (IA) sean seguros, éticos y justos para todos los que los utilizan o interactúan con ellos.

Los principios de CoSAI

CoSAI imagina un mundo en el que las medidas de seguridad en el desarrollo de la IA no sean una ocurrencia tardía, sino un aspecto fundamental, algo así como construir casas con cimientos sólidos desde el principio.

La idea es sencilla: si queremos que todas las personas de este planeta (y más allá) se beneficien de las potentes tecnologías del futuro, como la Inteligencia Artificial General (a partir de ahora, IAG), hay que garantizar que sigan siendo siempre beneficiosas y no perjudiciales, pase lo que pase durante su proceso de creación… ¡incluso si se convierten en superinteligentes!

El CoSAI tiene un objetivo principal: garantizar que todos los sistemas IAG desarrollados beneficien a todos. Su objetivo es evitar cualquier posibilidad de utilizar estas tecnologías de forma que puedan perjudicar a la humanidad o conducir a una injusta concentración de poder.

El peligro de las IAG

Las IAG podrían ser potencialmente mucho más inteligentes que los humanos en casi todos los campos. Por tanto, urge ser precavidos a la hora de desarrollar AGIs. Sin las suficientes medidas de seguridad garantizadas inicialmente por investigadores de todo el mundo, estas I.A podrían no actuar de acuerdo con nuestros mejores intereses una vez que superen las capacidades de nivel humano.

Pero, ¿cuál es el plan de CoSAI para que esto ocurra? Ante todo, hacen hincapié en mejorar la seguridad de la cadena de suministro de software para sistemas de I.A. Esto implica un control más estricto de lo que se incorpora a sus aplicaciones de I.A, garantizando que estén lo más libres de alteraciones posible.

El factor humano es fundamental

Además, no podemos ignorar la gobernanza de la seguridad de la IA. Deben crearse métodos estándar y modelos de evaluación de riesgos para abordar el complicado campo de la seguridad de la IA. El objetivo del CoSAI es simplificar este procedimiento, haciéndolo comprensible y más sencillo para que todos puedan aplicar las precauciones necesarias.

Guiando este audaz esfuerzo se encuentran profesionales de la industria y el mundo académico, unidos para dirigir el CoSAI hacia su objetivo de formar un futuro de IA más seguro. Apoyado por los grandes de la tecnología y dirigido por personas experimentadas, el CoSAI debería estar preparado para crear cambios notables en el manejo de la seguridad de los sistemas de I.A.

En nuestro mundo, donde la IA tiene grandes posibilidades pero también graves peligros, la creación del CoSAI es un paso positivo. Demuestra hasta qué punto la industria tecnológica quiere garantizar que el futuro de la IA no solo parezca prometedor, sino que también siga siendo seguro y esté protegido.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x