El público también debe ser protegido frente a la I.A y sus peligros

El organismo de protección de la intimidad de la UE investiga el uso de los servicios en la nube Estadounidenses

Los deepfakes generados por I.A son realistas, fáciles de hacer para casi cualquier persona o público y se utilizan cada vez más para actividades de fraude, abuso y manipulación, especialmente para dirigirse a niños y personas mayores.

Si bien el sector tecnológico y los grupos sin fines de lucro han tomado medidas recientes para abordar este problema, se ha hecho evidente que nuestras leyes también deben evolucionar para combatir el fraude de los deepfakes.

En resumen, necesitamos nuevas leyes que ayuden a evitar que los delincuentes utilicen deepfakes para estafar a las personas mayores o abusar de los niños.

Aunque la industria se ha centrado en los deepfakes utilizados para interferir en las elecciones, el amplio papel que desempeñan en otros tipos de delitos y abusos necesita la misma atención.

Implantando defensas contra la I.A

El sector privado tiene la responsabilidad de innovar e implementar defensas que eviten el uso indebido de la IA. Las empresas tecnológicas deben dar prioridad a las consideraciones éticas en sus procesos de investigación y desarrollo de IA. Al invertir en técnicas avanzadas de análisis, divulgación y mitigación, el sector privado puede desempeñar un papel fundamental para frenar la creación y difusión de contenidos nocivos generados por la I.A, manteniendo así la confianza en el ecosistema de la información.

Además, la sociedad civil desempeña un papel importante a la hora de garantizar que tanto la regulación gubernamental, como la acción voluntaria de la industria defiendan los derechos humanos fundamentales, como son la libertad de expresión y la privacidad. Al fomentar la transparencia y la rendición de cuentas, podemos generar confianza pública en las tecnologías de IA.

Por ello, abordar los desafíos que surgen del contenido abusivo generado por IA requiere un frente unido. Al aprovechar las fortalezas y la experiencia de los sectores público, privado y de las ONG, podemos crear un entorno digital más seguro y confiable para todos.

La responsabilidad de Microsoft

Microsoft no es ajena a todo esto, y a principios de este año, esbozaron un enfoque integral para combatir el contenido abusivo generado por IA y proteger a las personas y las comunidades, basado en seis áreas:

  1. Una sólida arquitectura de seguridad.
  2. Procedencia de medios y marcas de agua duraderas.
  3. Proteger nuestros servicios de contenido y conductas abusivas.
  4. Sólida colaboración entre la industria y con los gobiernos y la sociedad civil.
  5. Legislación actualizada para proteger a las personas del abuso de la tecnología.
  6. Sensibilización y educación pública.

No tenemos todas las soluciones, ni son las perfectas. Sin embargo, Microsoft ofrece estas recomendaciones para contribuir al tan necesario diálogo sobre los daños de los medios sintéticos de la IA. La puesta en práctica de cualquiera de estas propuestas requerirá fundamentalmente un enfoque por parte de toda la sociedad.

Si bien es imperativo que la industria tecnológica tenga un papel aquí, debe hacerlo con humildad y para promover la acción. Microsoft da la bienvenida a ideas adicionales de las partes interesadas en todo el ecosistema digital para abordar los daños del contenido sintético. En última instancia, el peligro no es que nos movamos demasiado rápido, sino que nos movemos demasiado lento o no lo hacemos en absoluto.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x