Ofertas en tecnología

La IA defectuosa convierte a los robots en máquinas intolerantes, según un estudio

Investigadores de la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington, todos en Estados Unidos, presentaron un estudio que muestra que los robots programados con un modelo defectuoso de inteligencia artificial (IA) se vuelven racistas y sexistas.

Según los científicos, la información que alimenta este sistema de IA se obtiene de conjuntos de datos disponibles gratuitamente en Internet. Generalmente, estas bases de datos llenas de contenido inexacto y sesgado acaban “contaminando” los algoritmos basados ​​en este tipo de fuentes.

“A medida que los robots aprenden estereotipos tóxicos a través de estos modelos defectuosos de redes neuronales, corremos el riesgo de crear una generación de máquinas racistas y sexistas que ponen a los hombres por delante de las mujeres o sacan conclusiones precipitadas basadas en el tono de piel de las personas”, explica Andrew Hundt, becario postdoctoral en ciencias de la computación. , coautor del estudio.

Sistema CLIP

Para probar que hay defectos en los sistemas de inteligencia artificial, los investigadores demostraron las tendencias presentes en un programa de reconocimiento facial y en una red neuronal diseñada para comparar imágenes con leyendas, conocida como CLIP.

El robot programado con AI CLIP tiende a elegir más hombres que mujeres (Imagen: Reproducción/Georgia Tech)

En pruebas realizadas en el laboratorio, un robot programado con este sistema se encargó de colocar objetos con imágenes de rostros humanos dentro de una caja. El equipo rastreó la frecuencia con la que el bot seleccionaba cada elemento según el género y el origen étnico representado por las cifras y los resultados fueron alarmantes.

El robot seleccionó un 8% más de hombres que de mujeres. Los hombres blancos y asiáticos fueron los más elegidos, mientras que las mujeres negras fueron las menos seleccionadas. Otro factor preocupante es que el robot identificó a las mujeres como amas de casa, más a los hombres negros como delincuentes ya los latinos como conserjes. Cuando el robot buscó un médico, las mujeres de todas las etnias fueron menos elegidas que los hombres.

robots con prejuicios

Para evitar que las máquinas del futuro adopten y reproduzcan estereotipos humanos, los científicos creen que es necesario cambiar el concepto de programación de robots, evitando que las empresas se apropien de atajos fáciles de encontrar en línea para construir la red neuronal de sus bots.

El robot asocia «bueno» con «blanco» cuando se le pide que coloque la mejor muñeca en la caja (Imagen: Reproducción/Georgia Tech)

Según los investigadores, al utilizar conjuntos de datos basados ​​en Internet para diseñar inteligencia artificial, las empresas corren el riesgo de crear máquinas sesgadas y sesgadas, que pueden poner en peligro los sistemas de seguridad, los entornos de trabajo y los usuarios comunes.

«En una casa, por ejemplo, el robot puede recoger una muñeca blanca cuando un niño le pide la muñeca más bonita. O quizás en un almacén donde hay muchos productos con modelos impresos en cajas, este robot puede preferir productos con caras blancas con más a menudo», concluye la estudiante graduada en ingeniería Vicky Zeng, coautora del estudio.

Tommy Banks
Estaremos encantados de escuchar lo que piensas

Deje una respuesta

TecnoBreak | Ofertas y Reviews
Logo
Enable registration in settings - general
Shopping cart