Las empresas de I.A europeas están preocupadas por la sobrerregulación de la U.E

Las partes interesadas de la industria tecnológica han advertido de que la Unión Europea corre el riesgo de regular «hasta la saciedad» a las empresas de I.A, si la próxima Ley de IA de la UE entra en vigor en su forma actual.

Todo en exceso es perjudicial

En una declaración conjunta del grupo de política tecnológica DigitalEurope, se afirma que la regulación de la I.A propuesta por la UE sigue suscitando gran preocupación, sobre todo por el impacto que tendrá en el uso de los modelos de base por parte de las organizaciones de la Unión.

Según la Ley de I.A de la UE, los legisladores clasificarán los modelos en función de su factor de riesgo, desde «mínimo» a «inaceptable» y «alto riesgo». Esto tiene en cuenta el potencial de los modelos de I.A para causar daños a las personas o a la sociedad en general.

Esto significa que las nuevas empresas que desarrollen modelos de base considerados de alto riesgo, estarán sujetas a requisitos adicionales, como la presentación periódica de informes sobre la calidad de los datos y los algoritmos, lo que puede dar lugar a costes más elevados y a una ralentización del ritmo de desarrollo.

Limitar la capacidad de las organizaciones, en particular de las nuevas empresas, para aprovechar los modelos de fundación, podría afectar a la innovación a largo plazo en toda la Unión y perjudicar la competencia con los competidores mundiales, argumentó el grupo político.

«Para que Europa se convierta en una potencia digital mundial, necesitamos empresas que puedan liderar la innovación en I.A, utilizando también modelos fundacionales y GPAI», reza la declaración.

Fuertes críticas a la Ley de Inteligencia Artificial de la UE

Este rechazo a la histórica normativa de la UE sobre I.A es el último de un largo tira y afloja entre los reguladores y las partes interesadas del sector.

La ley ha sido objeto de intensas críticas en los últimos meses por considerar que podría perjudicar a la innovación en Europa, durante un periodo crítico en el desarrollo de la industria mundial de la I.A.

La comunidad del código abierto, en particular, ha arremetido contra la normativa. En septiembre de 2022, el grupo de reflexión Brookings publicó un informe en el que criticaba duramente las propuestas, advirtiendo de que la ley socavaría gravemente el desarrollo de la I.A de código abierto y perjudicaría a los desarrolladores.

¿Cuál es el problema de la U.E con el código abierto?

En julio de 2023, un consorcio de importantes empresas tecnológicas, entre ellas GitHub y Hugging Face, publicó un documento político en el que advertía de que la Ley de IA de la UE perjudicaría tanto al desarrollo de la IA de código abierto como a los objetivos más amplios de la industria.

El documento pedía definiciones más concisas de los componentes de la I.A y un mayor apoyo al desarrollo de modelos de I.A de código abierto.

Las preocupaciones de las empresas se centraron específicamente en si la investigación y las pruebas de modelos de I.A, se interpretarán como «actividad comercial» en virtud de la ley y, por tanto, estarán sujetas a una regulación más estricta.

En las últimas semanas también han surgido quejas entre los Estados miembros de la U.E interesados en apoyar sus propias industrias tecnológicas. El 20 de noviembre, tres de las mayores economías de la UE -Francia, Alemania e Italia- firmaron un acuerdo conjunto que aboga por la «autorregulación obligatoria» de los modelos de fundación.

Un documento conjunto del trío aboga por el establecimiento de códigos de conducta voluntarios y la revisión de la distinción entre la regulación del uso de las herramientas de I.A en la sociedad, y la regulación de las propias tecnologías de I.A.

Pasos en la dirección correcta

DigitalEurope acogió con satisfacción el acuerdo como un paso positivo para limitar el «alcance de los modelos de fundación a las normas de transparencia».

«La Ley de I.A no tiene por qué regular cada nueva tecnología, y apoyamos firmemente que el ámbito original del reglamento se centre en los usos de alto riesgo, no en tecnologías específicas».

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x