Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad

Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad

Durante la conferencia de desarrolladores Build 2020, que se realizó online hace unos días, Microsoft anunció la incorporación de nuevas capacidades a Azure Machine Learning. Esto es su entorno basado en Cloud para capacitación, implementación y administración de modelos de IA. Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad diferencial.

WhiteNoise está ahora disponible a través de Azure y en código abierto en GitHub. Esto se une a nuevas herramientas de interpretación y equidad IA, así como a nuevos controles de acceso para datos, modelos y experimentos. También nuevas técnicas para la trazabilidad; nuevos productos confidenciales de machine learning y una nueva documentación de responsabilidad de flujo de trabajo.

Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad

El esfuerzo es parte del impulso de Microsoft hacia sistemas de IA más explicables, seguros y justos. Los estudios han demostrado que el sesgo en los sistemas de reconocimiento facial es dominante. También que la IA tiene un problema de privacidad en el sentido de que muchos modelos no pueden usar datos cifrados. Además de las características de Azure ML que se lanzaron en esa conferencia, los intentos de Microsoft por encontrar soluciones a esos y otros desafíos incluyen varias cosas. Herramientas de detección de sesgos de IA, esfuerzos internos para reducir errores perjudiciales, listas de verificación de ética de IA y un comité (Aether) que aconseja sobre actividades IA. Además, el videpresidente coroporativo de Microsoft, Eric Boyd, dice que los equipos de Xbox, Bing, Azure y Microsoft 365 informaron el desarrollo de algunos de los kits de herramientas lanzados en la Build 2020.

Así es WhiteNoise

«Las organizaciones ahora están analizando cómo pueden desarrollar aplicaciones IA que sean fáciles de explicar y cumplan regulaciones. Necesitan herramientas con estos modelos de inteligencia artificial que están armando para que sea más fácil explicar, comprender, proteger y controlar los datos y el modelo», dijo Boyd. «Creemos que nuestro enfoque hacia la IA se diferencia al construir una base sólida en la investigación profunda y un enfoque reflexivo y compromiso de código abierto.»

Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad

El kit de herramientas WhiteNoise fue desarrollado en colaboración con investigadores del Instituto de Ciencias Sociales Cuantitativas de Harvard y la Escuela de Ingeniería. Éste aprovecha la privacidad diferencial para hacer posible obtener información de los datos mientras se protege la información privada. Esto es, los nombres o las fechas de nacimiento. Por lo general, la privacidad diferencial implica inyectar una pequeña cantidad de ruido en los datos sin procesar antes de introducirlos en un modelo de machine learning local. Esto dificulta que los actores maliciosos extraigan los archivos originales del modelo entrenado. Un algoritmo puede considerarse diferencialmente privado si un observador que ve su salida no puede saber si utilizó la información de un individuo en particular para el cálculo.

WhiteNoise proporciona una biblioteca extensible de algoritmos y mecanismos diferencialmente privados. Con esto, se liberan consultas y estadísticas de preservación de la privacidad. También tiene API para definir un análisis y un «validador» para evaluar los análisis y calcular la pérdida total de privacidad. Microsoft dice que podría permitir que un grupo de hospitales colabore en la construcción de un mejor modelo predictivo sobre la eficacia de los tratamientos contra el cáncer, por ejemplo. Al mismo tiempo ayuda a cumplir con los requisitos legales para proteger la privacidad de la información del hospital.

InterpretML es otro kit de herramientas

El último de la lista de los nuevos kits de herramientas es InterpretML. Se estrenó el año pasado en alfa, pero hoy ya está disponible en Azure Machine Learning. InterpretML incorpora una serie de técnicas de interpretación de aprendizaje automático. Esto ayuda a dilucidad a través de visualizaciones los comportamientos del modelo y el razonamiento detrás de las predicciones. Se le pueden recomendar los parámetros o variables, que son más importantes para un modelo en cualquier caso de uso y puede explicar por qué estos parámetros son importantes.

Microsoft presenta WhiteNoise, un kit de herramientas IA para privacidad

«Queremos que ponga esto a disposición de un amplio conjunto de nuestros clientes a través de Azure Machine Learning para ayudarlos a comprender y explicar lo que sucede con su modelo», explicaba Boyd. «Con estos kits de herramientas, creemos que les hemos dado a los desarrolladores mucho poder para comprender realmente sus modelos. Pueden ver la interpretabilidad de ellos y también la imparcialidad. Pueden comenzar a comprender otros parámetros con los que se hacen las predicciones o que están influyendo en el modelo de una manera distinta.»

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x