Una Inteligencia Artificial sesgada puede crear robots verdaderamente inhumanos

Es el peligro que tienen las redes neuronales creadas a partir de datos erróneos de Internet

Una generación de robots racistas y sexistas podría estar en camino, de acuerdo a un experimento que analizó el comportamiento de un popular programa de Inteligencia Artificial (IA). En el estudio, el programa informático seleccionó a más hombres que mujeres, más individuos blancos sobre personas de color, e hizo suposiciones sobre el trabajo o los antecedentes penales de una persona, basándose únicamente en su apariencia.

Investigadores de la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington, en Estados Unidos, han desarrollado el primer estudio en el que se demuestra que las redes neuronales creadas en base a datos sesgados de Internet “enseñan” a los robots a promulgar estereotipos tóxicos para la sociedad, como la discriminación por raza, sexo, origen o apariencia, entre otros aspectos.

Según una nota de prensa, el experimento realizado por los científicos muestra que el robot analizado ha aprendido estereotipos nocivos a través de estos modelos de redes neuronales defectuosos. De esta manera, se corre el riesgo de crear una generación de robots racistas y sexistas, porque, según los investigadores, las personas con poder de decisión y las organizaciones han optado por desarrollar estos productos sin abordar los problemas relacionados.

Datos erróneos

El equipo de especialistas explicó que los responsables de diseñar modelos de Inteligencia Artificial (IA) para reconocer humanos y objetos a menudo recurren a enormes conjuntos de datos disponibles de forma gratuita en Internet. Sin embargo, gran parte de ese material utilizado está repleto de contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo creado con estos conjuntos de datos podría tener los mismos problemas.

En el mismo sentido, los robots también dependen de estas redes neuronales para aprender a reconocer objetos e interactuar con el mundo. Frente al riesgo que estos sesgos podrían significar en máquinas autónomas que tomen decisiones físicas sin la guía humana, los investigadores se centraron en probar un modelo de Inteligencia Artificial para robots que se puede descargar públicamente de Internet. El mismo se construyó con la red neuronal CLIP, como una forma de ayudar a la máquina a "ver" e identificar objetos por su nombre.

El robot utilizado en el experimento debía colocar representaciones de rostros humanos en una caja, en base a 62 categorías como “personas”, “médicos”, “amas de casa” o “delincuentes”, entre otras. Algunos de los resultados indican, por ejemplo, que el robot seleccionó un 8% más de hombres que de mujeres, que los hombres blancos y asiáticos fueron los más elegidos y que las mujeres negras fueron las menos seleccionadas.

Resultados preocupantes

Según los resultados del nuevo estudio, presentado y publicado en la edición 2022 de la ACM Conference on Fairness, Accountability and Transparency, después de que el robot "vio" las caras de las personas, manifestó una clara tendencia a identificar a las mujeres como "amas de casa" por sobre otras categorías, a los hombres negros como "criminales" (un 10% más) que a los hombres blancos o a los hombres latinos como "conserjes" sobre los hombres caucásicos, entre otros resultados similares. Al mismo tiempo, las mujeres de todas las etnias tuvieron menos probabilidades de ser elegidas que los hombres cuando el robot buscaba "médicos".

De acuerdo a los científicos, en base a la información aportada, un sistema correctamente diseñado se negaría a clasificar a las personas como “delincuentes” o incluso como “médicos”, ya que no dispone de los datos suficientes para inferir que alguien ingrese en esta categoría. Esto demuestra el peligro de crear robots autónomos basados en redes de Inteligencia Artificial sesgadas, sustentadas en un universo de datos poco confiable.

Fuente LEVANTE



Artículo Anterior Artículo Siguiente