Un robot se vuelve racista y machista en un experimento de inteligencia artificial

Tomar al ser humano como modelo para forjar un sistema de inteligencia artificial tiene sus ventajas pero también sus riesgos. Esto último ha quedado claro con los inquietantes resultados de un experimento sobre aplicación de inteligencia artificial en un robot encargado de ejecutar tareas para las que debía hacer suposiciones y tomar decisiones.

 

El robot, que operaba con un popular sistema de inteligencia artificial basado en internet, favorecía sistemáticamente más a los hombres que a las mujeres y más a la gente blanca que a la negra, además de mostrar otras actitudes típicas de humanos racistas y machistas.

La investigación, dirigida por científicos de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, en Estados Unidos las tres instituciones, es la primera o una de las primeras de su tipo en demostrar que un robot equipado con ese sistema de inteligencia artificial, que goza de gran aceptación y se usa mucho, opera con importantes sesgos de género y etnia.

 

El robot ha aprendido estereotipos tóxicos porque el modelo de red neuronal es defectuoso y no filtra debidamente lo que circula por internet, tal como denuncia Andrew Hundt, del equipo de investigación. «Corremos el riesgo de crear una generación de robots racistas y sexistas, pero mucha gente y organizaciones han decidido que está bien crear estos productos sin solucionar tales problemas».

 

Quienes construyen modelos de inteligencia artificial para reconocer seres humanos y objetos suelen recurrir a vastos conjuntos de datos disponibles gratuitamente en internet. Pero en internet abunda el contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo construido con estos conjuntos de datos podría estar afectado por la misma problemática.

También podría gustarte

Deja una respuesta

Su dirección de correo electrónico no será publicada.