OpenAI anuncia un equipo para incorporar ideas «crowdsourced» a sus modelos

OpenAI dice que quiere poner en práctica las ideas del público sobre cómo garantizar que sus futuros modelos de I.A «se alineen con los valores de la humanidad«.

Con este fin, la startup de I.A está formando un nuevo equipo de Alineación Colectiva de investigadores e ingenieros, para crear un sistema de recogida y «codificación» de las aportaciones del público sobre los comportamientos de sus modelos en los productos y servicios que comercializan.

Programas para seguir mejorando

El equipo de Alineación Colectiva es una consecuencia del programa público de OpenAI, lanzado el pasado mes de mayo, para conceder subvenciones y financiar experimentos en la creación de un «proceso democrático» que decida qué reglas deben seguir los sistemas de I.A.

El objetivo del programa, según explicó OpenAI en su debut, era financiar a personas, equipos y organizaciones para que desarrollaran pruebas de concepto que pudieran responder a preguntas sobre los límites y la gobernanza de la I.A.

La empresa de I.A ha resumido el trabajo de los beneficiarios de las subvenciones, que abarca desde interfaces de videochat hasta plataformas para auditorías de modelos de I.A por crowdsourcing y «enfoques para asignar creencias a dimensiones que puedan utilizarse para ajustar el comportamiento de los modelos».

No exento de críticas

OpenAI ha intentado presentar este programa de ideas como ajeno a sus intereses comerciales. Pero esto es un poco difícil de digerir, dadas las críticas del CEO de OpenAI, Sam Altman, a la regulación en la UE y en otros lugares. Altman, junto con el presidente de OpenAI, Greg Brockman, y el director científico, Ilya Sutskever, han sostenido en repetidas ocasiones que el ritmo de la innovación en IA es tan rápido que no podemos esperar que las autoridades existentes controlen adecuadamente la tecnología, de ahí la necesidad de externalizar el trabajo.

OpenAI está sometida a un escrutinio cada vez mayor por parte de los organismos reguladores, y se enfrenta a una investigación en el Reino Unido sobre su relación con Microsoft, su socio e inversor más cercano. Recientemente, la empresa trató de reducir su riesgo normativo en la UE en relación con la privacidad de los datos, mediante una filial con sede en Dublín para reducir la capacidad de determinados organismos de control de la privacidad del bloque para actuar unilateralmente en caso de preocupación.

La empresa ha anunciado recientemente -en parte para tranquilizar a los responsables políticos- que está trabajando con organizaciones para tratar de limitar las formas en que su tecnología podría utilizarse para influir en las elecciones a través de medios maliciosos. Los esfuerzos de la startup incluyen hacer más obvio cuándo las imágenes son generadas por I.A utilizando sus herramientas, y por otro lado desarrollar enfoques para identificar el contenido generado incluso después de que las imágenes hayan sido modificadas.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x