La ética de la IA: Una visión general

La ética de la IA: Una visión general

Si bien la IA ofrece enormes beneficios potenciales, las organizaciones deben asegurarse de que su uso cumpla con los estándares éticos. La ética de la IA: Una visión general.

La Inteligencia Artificial ha progresado hasta el punto en que las máquinas son capaces de realizar tareas que las personas alguna vez pensaron que solo podían hacer los humanos. Este aumento en el poder de la IA destaca la importancia de la ética en la IA: debemos usar esta poderosa tecnología de manera responsable.

Por ejemplo, la inteligencia artificial moderna es capaz de comprender y crear arte, mantener conversaciones inteligentes, identificar objetos a simple vista, aprender de experiencias pasadas y tomar decisiones autónomas.

Las organizaciones han implementado IA para realizar una amplia gama de tareas. La IA crea recomendaciones personalizadas para los compradores en línea, determina el contenido que ven los usuarios de las redes sociales, toma decisiones de atención médica, determina qué candidatos contratar, conduce vehículos, reconoce rostros y mucho más.

La ética de la IA: Una visión general

Dadas las innumerables oportunidades comerciales que brinda esta nueva tecnología, el mercado global de tecnologías de IA se ha disparado durante la última década y continúa creciendo. Gartner estima que los clientes de todo el mundo gastarán 65.200 millones de dólares en software de IA en 2022. Esto es un aumento del 21,3% con respecto al año anterior.

Si bien la tecnología de IA es nueva y emocionante y tiene el potencial de beneficiar tanto a las empresas como a la humanidad en su conjunto, también genera muchos desafíos éticos únicos.

Ejemplos de IA poco ética

Las noticias no tienen escasez de ejemplos de IA poco ética. Un ejemplo práctico, fue un algoritmo ampliamente usado para determinar la atención médica. Este evaluaba sistemáticamente la necesidad de atención de los pacientes de color como inferior a las necesidades de los pacientes blancos.

Eso fue problemático porque los hospitales y las compañías de seguros usaban esta evaluación de riesgos para determinar qué pacientes tendrían acceso a un programa especial de administración de atención de alto riesgo. En este caso, el problema ocurrió porque el modelo de IA usó los costos de atención médica como un indicador de la necesidad de atención médica, sin tener en cuenta las disparidades en la forma en que las poblaciones blanca y negra acceden a la atención médica.

Sin embargo, la discriminación no es el único problema potencial con los sistemas de IA. En uno de los primeros ejemplos de IA problemática, Microsoft lanzó un chatbot de Twitter llamado Tay que comenzó a enviar tweets racistas en menos de 24 horas.

Desafíos de la ética de la IA

A pesar de las muchas noticias que destacan las preocupaciones relacionadas con la ética de la IA, la mayoría de las organizaciones aún no han recibido el mensaje de que deben considerar estos problemas. Veamos cuáles son estos problemas.

Parcialidad

Como ya hemos visto, quizás el mayor desafío para construir una IA ética es el sesgo de la IA. Además de los casos ya mencionados, la herramienta de justicia penal de IA conocida como COMPAS (Perfil de gestión de delincuentes correccionales para sanciones alternativas) es un ejemplo notorio. La herramienta fue diseñada para predecir el riesgo de un acusado de cometer otro delito en el futuro. Los funcionarios de los tribunales y de la libertad condicional y la libertad condicional luego usaron esa información para determinar las sentencias penales apropiadas o quién obtiene la libertad condicional o la libertad condicional.

La ética de la IA: Una visión general

Sin embargo, COMPAS tendía a discriminar a los negros. «Incluso al controlar los delitos anteriores, la reincidencia futura, la edad y el género, los acusados ​​negros tenían un 45 % más de probabilidades de recibir puntuaciones de riesgo más altas que los acusados ​​blancos». En realidad, los acusados ​​negros y blancos reinciden aproximadamente en la misma proporción: 59 por ciento. Pero los acusados ​​negros recibían sentencias mucho más largas y era menos probable que recibieran libertad condicional o libertad condicional debido al sesgo de IA.

Debido a que los humanos crearon la IA y la IA se basa en los datos proporcionados por los humanos, puede ser inevitable que algún sesgo humano se abra paso en los sistemas de IA. Sin embargo, hay algunos pasos obvios que se deben tomar para mitigar el sesgo de la IA.

Privacidad de datos

Este es otro de los grandes problemas de la IA. Con el auge de Internet y las tecnologías digitales, las personas ahora dejan un rastro de datos a los que pueden acceder las corporaciones y los gobiernos.

En muchos casos, las empresas de publicidad y redes sociales han recopilado y vendido datos sin el consentimiento de los consumidores. Incluso cuando se hace legalmente, esta recopilación y uso de datos personales es éticamente dudoso. A menudo, las personas desconocen hasta qué punto esto está sucediendo y probablemente les preocuparía si estuvieran mejor informados.

La ética de la IA: Una visión general

La IA exacerba todos estos problemas porque facilita la recopilación de datos personales y su uso para manipular a las personas. En algunos casos, esa manipulación es bastante benigna, como dirigir a los espectadores a películas y programas de televisión que podrían gustarles porque han visto algo similar. Pero las líneas se vuelven más borrosas cuando la IA usa datos personales para manipular a los clientes para que compren productos. Y en otros casos, los algoritmos podrían estar usando datos personales para influir en las creencias políticas de las personas o incluso convencerlas de creer cosas que no son ciertas.

Además, el software de inteligencia artificial de reconocimiento facial permite recopilar información extensa sobre las personas al mirar fotos de ellas. Los gobiernos están luchando con la cuestión de cuándo las personas tienen derecho a esperar privacidad cuando están en público. Algunos países han decidido que es aceptable realizar un reconocimiento facial generalizado, mientras que otros lo prohíben en todos los casos. La mayoría dibuja las líneas en algún lugar en el medio.

Transparencia

Como ya se mencionó, los sistemas de IA a menudo ayudan a tomar decisiones importantes que afectan en gran medida la vida de las personas, incluidas las decisiones de contratación, médicas y de justicia penal. Debido a que hay mucho en juego, las personas deberían poder entender por qué un sistema de IA en particular llegó a la conclusión de que lo hizo. Sin embargo, el fundamento de las determinaciones hechas por AI a menudo se oculta a las personas afectadas.

Hay varias razones para esto. En primer lugar, los algoritmos que utilizan los sistemas de IA para tomar decisiones suelen ser secretos empresariales protegidos que las organizaciones no quieren que descubran las empresas rivales.

En segundo lugar, los algoritmos de IA a veces son demasiado complicados para que los no expertos los entiendan fácilmente. Finalmente, quizás el problema más desafiante es que la decisión de un sistema de IA a menudo no es transparente para nadie, ni siquiera para las personas que lo diseñaron.

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Relacionados

Tendencias

Más leídos

Se habla de..

0
Would love your thoughts, please comment.x
()
x