La Inteligencia Artificial (IA) tiene un inconveniente con el que no se contaba hasta hace unos años: está entrenada por los humanos. Seres imperfectos. Seres obsesivos. Son los que «entrenan» las capacidades de los algoritmos a fin de que hagan su trabajo. Introducen las bases de datos de las que toman mas concretan una sociedad desde cortes. La razón: quienes se hacen cargo de nutrir la máquina son, en su mayor parte, hombres blancos. Por lo tanto, conforme un nuevo estudio, no representa la diversidad del planeta.

Un experimento elaborado por la asesora Biko ha concluído que los primordiales algoritmos empleados por los sistemas de reconocimiento de imágenes de Amazon o bien Google etiquetan de una forma diferente a hombres y mujeres. Por eso, a ojos de estos software, si en una imagen aparece una persona portando un martillo se relaciona de forma automática con comportamientos masculinos.

«De un tiempo a esta parte, pese a la fe puesta en los presuntos superpoderes de la IA, hemos debido aceptar que ni es tan objetiva ni tan neutral como se deseaba pensar. Muchas veces es ineficaz, discriminatoria, sexista y racista. Algo que no resulta extraño puesto que los humanos, presentes en todo el ciclo vital de la IA, podemos trasladar nuestras subjetividades y cortes a la máquina en todas y cada una de las fases del proceso», explican en un comunicado los autores de la investigación.

En los últimos tiempos se ha abortado esta cuestión debido al notable incremento de soluciones tecnológicas que aprovechan los avances en el campo de los algoritmos y el «aprendizaje automático» («machine learning», en inglés). Abundantes estudios han detectado cortes en estos sistemas que han asaltado la vida rutinaria por culpa de servicios digitales que dejan, entre otras muchas cosas, percibir sugerencias de contenidos amoldados a los intereses de cada usuario.

«En el reconocimiento de imágenes, las IAs hallan y también identifican objetos y los asocian con las etiquetas y categorías en las que se han entrenado. La mayor parte de modelos pre-entrenados de IA usan un volumen limitado de categorías», agregan. Y mantienen que una parte de los inconvenientes de los cortes hallados se hallan en las etiquetas que se asocian a la información del conjunto de datos.

«Descubrir no solo bajo qué criterio las redes neuronales clasifican las imágenes sino más bien aun con qué datasets se han entrenado resulta misión todavía más imposible debido a la opacidad de las IA y la de sus empresas propietarias», lamenta en un artículo publicado en Medium
Ujue Agudo, asesora y maestra de la UNAV. Por servirnos de un ejemplo, se descubrió que bajo las categorías «girl» (muchacha, en castellano) o bien «woman» (mujer, en castellano) se ordenaban más frecuentemente imágenes de jóvenes posando o bien efectuando labores de forma tradicional asociadas a hombres. Los estudiosos consideran «falta de coherencia».

«Debemos ser siendo conscientes de que los humanos estamos presentes en todo el ciclo vital de la IA. Puesto que los humanos tenemos cortes, estos pueden trasladarse a la IA en todas y cada una de las fases de ese ciclo vital. Nos engañamos si consideramos que podemos crear una IA objetiva, infalible y neutral. Conque hemos de ser siendo conscientes de esos cortes y mitigarlos en todos y cada paso del ciclo. Si un sistema es predictivo, obviamente a veces la predicción puede fallar», apunta en declaraciones a ABC Karlos G. Liberal, otro de los autores de la investigación. Y añade: «Las IA son sistemas predictivos y por ende tienen un margen de fallo. Si reconocen personas o bien lo hacen mas no todo lo apropiadamente que se espera de ellas, se deberá indicar».

Una investigación de la universidad Cornell (E.U.) en 2019 descubrió, entre otras muchas cosas, que la precisión en el reconocimiento de objetos cambiaba si se trataba de imágenes tomadas en E.U. que en países subdesarrollados donde las condiciones económicas son diferentes. Sus autores apuntaron que los resultados sugerían que «se precisa más trabajo« a fin de que los sistemas de reconocimiento de objetos «funcionen del mismo modo bien» para personas de diferentes países y niveles de ingresos.

Hace un par de años se hizo muy popular de un día para otro una aplicación llamada FaceApp, que incorpora un sistema de perturbación de imágenes que deja aplicar filtros de belleza, cambio de género o bien envejecimiento. Este inocente y ameno servicio ha servido para dar a conocer entre el público estos cortes. Por servirnos de un ejemplo, si en una imagen aparece una persona con pelo largo y rasgos de mujer, el software no es capaz de advertir el objeto que mantiene como una taladradora y lo puede mudar como un secador.

Los autores del experimento asimismo examinaron los resultados de otra aplicación popular, CamFind. «Descubrimos que al suprimir un objeto de una foto, la descripción cambiaba significativamente», afirman. El sistema categorizaba a un hombre barriendo con una escoba con «vestido de mujer» mas en el instante en el que se borraba la escoba se identificaba «polo de hombre».

«Lo que hallamos en Amazon Rekognition -otro sistema de reconocimiento facial-, igual que ocurría con CamFind, es que la fotografía se etiquetaba diferente conforme el género aparente. Mas en un caso así, o bien el objeto era perceptible en una foto mas no en su par, o bien se confundía con otro objeto, o bien devolvía etiquetas que parecían guardar relación con el género aparente de la persona fotografiada», aseguran. En el último año, esenciales firmas como Amazon o bien IBM que han desarrollado sistemas de reconocimiento facial han paralizado sus proyectos y han dejado de comercializarlo con los cuerpos de seguridad en E.U..

Fuente: ABC.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *