Los investigadores proponen un marco para medir el impacto social y ambiental de IA

Los investigadores proponen un marco para medir el impacto social y ambiental de IA

En una reciente publicación en el servidor Arxiv.org, los investigadores del Instituto de Montreal de IA Ética de la Universidad de McGill y Microsoft proponen un marco de cuatro pilares llamado SECure diseñado para cuantificar el impacto ambiental y social de la IA. Esto se hará a través de técnicas como el machine learning de computación eficiente, el aprendizaje federado y la soberanía de los datos. Los investigadores proponen un marco para medir el impacto social y ambiental de IA. Los coautores afirman que los científicos y los profesionales tienen el poder de reducir las contribuciones a la huella de carbono. A la vez que esto, restauran la confianza en los sistemas históricamente opacos.

La sostenibilidad, la privacidad y la transparencia siguen siendo desafíos sin resolver en el mundo de la IA. En junio de 2019, los investigadores de la Universidad de Massachusetts publicaron un estudio. En éste se estima que la cantidad de energía requerida para entrenar y buscar un modelo dado implica la emisión de aproximadamente 626.000 libras de dióxido de carbono. Esto equivale a casi 5 veces las emisiones de por vida de un coche estadounidense promedio. Las asociaciones como las que persigue DeepMind y el Servicio Nacional de Salud de Reino Unido ocultan la verdadera naturaleza de los sistemas de IA. Los datos confidenciales de entrenamiento de IA, a menudo se filtran a la web pública, generalmente sin el conocimiento de los interesados.

Los investigadores proponen un marco para medir el impacto social y ambiental de IA

El primer pilar de SECure, entonces, es el aprendizaje automático eficiente en computación. Tiene como objetivo reducir las cargas de computación. Estas, generalmente hacen que el acceso sea desigual para los investigadores que no están asociados con organizaciones con infraestructuras pesadas de procesamiento de datos y computación. Proponen crear una métrica estandarizada que pueda usarse para hacer comparaciones cuantificadas entre configuraciones de hardware y software. Esto permite a las personas tomar decisiones informadas al elegir un sistema sobre otro.

El segundo pilar de SECure propone el uso de enfoques de aprendizaje federado como mecanismo para realizar la capacitación en el dispositivo e inferencia de modelos de machine learning. Como señalan los coautores, el aprendizaje federado puede disminuir el impacto del carbono. Se consigue al realizar cálculos donde se produce electricidad usando fuentes limpias. Como beneficio de segundo orden, mitiga los riesgos y daños que surgen de la centralización de los datos. Esto incluye las violaciones de datos y las intrusiones de privacidad.

Los investigadores proponen un marco para medir el impacto social y ambiental de IA

El tercer pilar de SECure es la soberanía de los datos. Se refiere a la idea de una fuerte propiedad de los datos y de otorgar a las personas el control sobre cómo se usan los datos, con qué fines y cuánto tiempo. También permite a los usuarios reiterar el consentimiento si lo consideran adecuado. Todo esto respetando las diferentes normas sobre propiedad que generalmente se ignoran en las discusiones sobre diversidad e inclusión en lo que respecta a IA. Los coautores también señalan que algunas perspectivas sobre los datos requieren que éstos se mantengan en tierras originales o se usen y procesen de manera consistente con ciertos valores.

Así es SECure

«En el dominio del aprendizaje automático, especialmente donde se agrupan grandes conjuntos de datos de numerosos usuarios, la retirada del consentimiento presenta un gran desafío». Esto lo escribieron los investigadores. «Específicamente, hoy no existen mecanismos claros que permitan la eliminación de los rastros de datos o de los impactos de los mismos relacionados con un usuario… sin requerir una nueva capacitación del sistema.»

El último pilar de SECure es la certificación LEED. Los investigadores proponen un proceso de certificación que proporcionará métricas que permitirán a los usuarios evaluar el estado de un sistema de IA en comparación con otros. Esto incluye las medidas del coste de las tareas de datos y los flujos de trabajo personalizados. Sería semiautomatizado para reducir los costes administrativos. Incluirían las herramientas que permiten que las organizaciones cumplan con los requisitos desarrollados y disponibles en código abierto. Sería inteligible para un amplio grupo de personas, informando por una encuesta diseñada para determinar la información que los usuarios buscan de las certificaciones y cómo se puede transmitir mejor.

Los investigadores creen que si SECure se implementase a escala, crearía el ímpetu para que los consumidores, académicos e inversores exigieran más transparencia sobre los impactos sociales y ambientales de IA.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x