La #inteligenciaartificial nos vende productos machistas y racistas sin que nadie se dé cuenta

20170311_1

Igual que algunas mujeres murieron en accidentes de coche porque las pruebas de seguridad se habían hecho con muñecos con forma de hombre, los productos habilitados por la IA incluyen sesgos, probablemente inconscientes, que se están colando en el mercado.
 
El núcleo central de la inteligencia artificial (IA) se compone de un proceso de dos fases: primero se le asigna un objetivo y después ella misma diseña una forma de conseguirlo. Por lo tanto, su forma de alcanzar dicha meta no siempre resulta demasiado transparente. Por eso, si usted está inculcando un cierto sesgo a una máquina de forma inconsciente, es posible que desconozca que, en efecto, el algoritmo también tiene ese sesgo. El resultado es que ese algoritmo podría ser perjudicial para las mujeres, pero costaría mucho averiguar exactamente por qué.
 
Esto ya ha pasado con la tecnología tradicional: hemos visto mujeres muriendo en accidentes automovilísticos porque los muñecos de prueba de choque tenían la forma de un hombre en lugar de la de una mujer. Con la IA podría haber situaciones similares de vida o muerte, en pruebas de drogas, vehículos autónomos y cosas por el estilo.
 
También hay algunos ejemplos [del sesgo de género de la inteligencia artificial actual]: anuncios de Google que muestran anuncios [de trabajo] con mayores sueldos a los hombres que a las mujeres. Podemos plantear otras hipótesis de otras situaciones en las que podría suceder: ¿qué pasaría si las mujeres no pudieran obtener los mismos préstamos, hipotecas o seguros?
 
No tengo una visión distópica de la inteligencia artificial. No creo que vaya a haber robots asesinos. Estoy mucho más centrada en las aplicaciones limitadas, y creo que, si nos fijamos en cada una de ellas, existe la posibilidad de que afecte negativamente a las mujeres. No creo que la inteligencia artificial sea el problema; es un problema adicional, en lugar de la causa. Estamos hablando del riesgo de que nuestro sexismo y racismo inconsciente se transmita a las máquinas que estamos construyendo.
 
¿Cómo conseguimos que alguien que está construyendo una IA tenga en cuenta estas cosas? Necesitamos que los consumidores exijan una inteligencia artificial ética. La gente no es demasiado consciente de que el problema va más allá de una simple cuestión de género: se trata de un problema real y fundamental del producto.
 
 
Si te gustó, compartilo:

Para poder comentar ingrese al sitio

Beneficios Socios

Vinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo SliderVinaora Nivo Slider

Actividades

ico_jiap.png ico_interjiap.png ico_socios.png
ico_ptu.png ico_claustro.png ico_premiogranato.png
ico_aap.png ico_green.png ico_calidad.png

 

Quién esta en línea

Hay 145 invitados y ningún miembro en línea

Síguenos en:

ico_facebook.png ico_twitter.png ico_linkedin.png ico_YT.png  
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE
IMAGE

Un día como hoy