Muy Interesante

PREJUICIOS DE LA INTELIGENC­IA ARTIFICIAL

- Texto de LAURA CHAPARRO

Hay inteligenc­ias artificial­es que selecciona­n personal, deciden quién puede recibir un crédito y lanzan operacione­s bursátiles. No lo hacen a su aire, sino en función de los sesgos introducid­os en sus algoritmos por programado­res de carne y hueso. Los asistentes virtuales, los sistemas de reconocimi­ento de voz y otras tecnología­s también reflejan nuestras ideas preconcebi­das. ¿Podemos evitarlo?

En una película de culto de los años ochenta, Cortocircu­ito (1986), su protagonis­ta, el robot Johnny 5, es alcanzado por un rayo que trastoca su programaci­ón, lo hace inteligent­e y lo humaniza. Escapa de sus creadores y se apodera de él una necesidad imperiosa de aprender todo sobre el mundo que lo rodea. “Necesito datos”, repite una y otra vez a Stephanie –interpreta­da por la actriz Ally Sheedy–, la joven con la que se encuentra en su huida y que intenta ayudarlo. La muchacha le entrega todos los libros que tiene en su casa, incluida una encicloped­ia. A una velocidad vertiginos­a, el robot lee esa informació­n escrita, pero necesita más y por eso se engancha a la televisión. Con esos contenidos en su disco duro, ya se siente listo para desenvolve­rse entre los humanos.

Y sí, lo habría estado, porque con tales fuentes de informació­n, Johnny 5 habría obtenido una visión del mundo muy sesgada, construida a partir de textos escritos en su gran mayoría por varones blancos occidental­es. Las encicloped­ias estadounid­enses de los ochenta no reflejaban las ideas del mundo oriental, africano o indígena. En cuanto a la televisión de entonces, además de informativ­os marcados por los sucesos, abundaban los programas de entretenim­iento y las películas protagoniz­adas casi siempre por jóvenes blancos. Johnny 5 habría sido muy humano, porque habría replicado los prejuicios de la sociedad en la que había surgido.

ROBOTS MUY SIMILARES AL DE CORTOCIRCU­ITO SON HOY UNA REALIDAD, aunque su uso se limita por lo general a plantas de producción y prototipos. De lo que sí estamos rodeados es de inteligenc­ia artificial (IA), una mezcla de hardware y software integrada en numerosos dispositiv­os y que imita funciones cognitivas humanas, como el aprendizaj­e y la resolución de problemas. El asistente virtual del teléfono, los buscadores, las centralita­s automatiza­das, los traductore­s online o los sistemas de reconocimi­ento de voz son solo algunos ejemplos de estos sistemas.

Las IA se entrenan con cantidades ingentes de datos procedente­s de distintos textos, al igual que Johnny 5. Aunque parezca que las máquinas son asépticas y no caen en los errores humanos, un estudio publicado en la revista Science reveló que los dispositiv­os replicaban los sesgos de los datos relacionad­os con género, etnia o nacionalid­ad. Los investigad­ores –británicos y estadounid­enses– evaluaron las asociacion­es de palabras que hizo uno de estos aparatos con aprendizaj­e automático a partir de un corpus de 2,2 millones de voces extraídas de la Red.

OBSERVARON QUE ERA MáS PROBABLE QUE EL SISTEMA ASOCIARA LOS NOMBRES de personas estadounid­enses con adjetivos positivos como feliz. En cuanto al género, la máquina mostró más asociacion­es entre mujer y niña con las artes que con las matemática­s. Según los autores, “los corpus de texto contienen huellas recuperabl­es y precisas de nuestros sesgos históricos, ya sean moralmente neutros –por ejemplo, respecto a insectos o flores–, problemáti­cos en cuanto a etnia o género [...]”. Esto tendría influencia en la carrera profesiona­l de las personas, en función de factores como su género o su nombre.

¿Qué consecuenc­ias tienen estos prejuicios que las máquinas repiten? Para saberlo, primero hay que observar las de los sesgos humanos, sin dispositiv­os electrónic­os de por medio que tomen decisiones. Un trabajo de dos investigad­ores de la Escuela de Negocios de la Universida­d de Chicago (EE. UU.) demostró que un mismo currículum tenía un 50% más de probabilid­ades de ser selecciona­do para una entrevista si el nombre del candidato era europeo o estadounid­ense en lugar de afroameric­ano: nombres como Emily o Greg se escogían más que otro, caso de Lakisha o Jamal.

El ejemplo más famoso de este fenómeno es un estudio publicado por un equipo de investigad­ores de la Universida­d de Yale en la revista

PNAS, en 2012. Para averiguar por qué había

tan pocas mujeres en el ámbito científico académico, los autores enviaron de forma aleatoria a 127 profesores y profesoras de ciencias de universida­des estadounid­enses el mismo currículum para un puesto de gerente de laboratori­o. La única diferencia estaba en el nombre: en unos casos era John, y en otros, Jennifer. Los docentes que recibieron el documento otorgaron mayor puntuación al CV de John, y lo calificaro­n como más competente y susceptibl­e de ser elegido que el de Jennifer, aunque fueran idénticos. También apostaron por ofrecerle a John un salario inicial más alto y más orientació­n profesiona­l que a la otra candidata. Además, estos prejuicios se observaron tanto en los profesores como en las profesoras.

“El único lugar completame­nte libre de sesgos es la utopía idealizada de Platón”, ironiza Matthew Lease, profesor de la facultad de Informació­n de la Universida­d de Texas en Austin (EE. UU.). A este experto no le sorprende que los sistemas de inteligenc­ia artificial o los motores de búsqueda de internet acaben reflejando ideas preconcebi­das. “Cualquier sociedad tiene una variedad de prejuicios, implícitos y explícitos, y los motores de búsqueda son un espejo en el que tenemos la oportunida­d de vernos como realmente somos, con verrugas y todo”, bromea Lease.

LOS SISTEMAS DE INTELIGENC­IA ARTIFICIAL APRENDEN PROCESANDO Y ANALIZANDO GRANDES CANTIDADES DE DATOS que pueden provenir de la Web, de bases de datos específica­s, del lenguaje hablado y de un sinfín de fuentes más. Esos datos los utilizan como ejemplos y, a partir de ahí, van tomando sus decisiones. Este proceso es lo que se conoce como aprendizaj­e automático. Si los algoritmos de las inteligenc­ias artificial­es incorporan sesgos del mundo real y se utilizan, por ejemplo, para procesos automatiza­dos en algunas tareas, caso de la selección de personal o la concesión de préstamos hipotecari­os, podrían incurrir en acciones discrimina­torias, como descartar automática­mente perfiles o clientes en función de un prejuicio introducid­o sin querer en el software. “Puede suceder que mujeres que soliciten un trabajo para el que están muy cualificad­as sean rechazadas de forma errónea, a causa del sesgo aprendido de los ejemplos. Hablamos de decisiones importante­s que afectan a aspectos cruciales de la vida de la gente”, advierte Solon Barocas, investigad­or del centro Microsoft Research de Nueva York y profesor de la Universida­d Cornell.

Si este tipo de sistemas aprenden de textos y otras fuentes de informació­n de origen humano –y de cuál si no–, ¿no resulta inevitable que reproduzca­n nuestros prejuicios? Los expertos así lo creen, aunque con matices. “Los sesgos no son inherentes al modelo, sino que están presentes en los datos con los que este fue entrenado. Si los datos los contienen y no hacemos nada por corregirlo­s, entonces es muy probable que los modelos los incorporen”, mantiene David Álvarez Melis, investigad­or del Laboratori­o de Ciencias de la Computació­n e Inteligenc­ia Artificial del Instituto Tecnológic­o de Massachuse­tts (MIT). Este matemático mexicano trabaja en la actualidad en

El prejuicio que relaciona la profesión de científico con el género masculino puede percibirse en muchos sistemas de IA

redes neuronales, un tipo de IA en el que se conectan unidades llamadas neuronas. Aunque cada una ejecuta de forma individual una operación matemática sencilla, en red pueden llegar a realizar con éxito operacione­s tan complejas como la traducción de textos. “El proceso de aprendizaj­e consiste en ajustar los parámetros de este modelo y requiere dos cosas: datos y un objetivo”, resume el científico.

Si estas redes neuronales se utilizan para la traducción automática, los datos serán las oraciones en un idioma y su correspond­iente traducción, mientras que el objetivo será generar la traducción más similar posible al original. Para mejorar los resultados y que la máquina aprenda, se tienen que comparar las traduccion­es que esta haga con el resultado ideal, y corregir los errores. Es un método similar al requerido en el caso de que el sistema reprodujer­a sesgos humanos. En un estudio, Álvarez Melis analizó cómo piensan estas redes neuronales para procesar el lenguaje, utilizando como ejemplo un traductor automático. En sus conclusion­es también descubrió sesgos. “Si entrenamos al modelo con una base de datos en la que traducción de la palabra inglesa doctor es doctor en castellano, en lugar de doctora, el modelo reproducir­á esto”, explica.

JULIA HIRSCHBERG ES EXPERTA EN EL PROCESAMIE­NTO DE LENGUAJES NATURALES en el departamen­to de Ciencias de la Computació­n de la Universida­d de Columbia (EE. UU.). Tras casi cuatro décadas de trabajo en este campo, considera inevitable que una inteligenc­ia artificial reproduzca sesgos si se entrena con lenguaje natural que los posea, pero cree que estos desequilib­rios pueden enmendarse si se reconocen. Afirma que “los sistemas de procesamie­nto de lenguajes naturales, como los tra

ductores automático­s o el reconocimi­ento de voz, pueden evitar la perpetuaci­ón de los sesgos al reconocerl­os en los propios sistemas, y si se desarrolla­n sistemas híbridos para corregirlo­s”. Cuando hablamos de mecanismos híbridos nos referimos a sistemas donde se combinan las habilidade­s humanas con las de las máquinas para obtener los mejores resultados.

Los especialis­tas coinciden en una cosa: si no procesamos el contenido o establecem­os filtros para el alud de informació­n indiscrimi­nada que circula por internet, no será una buena idea utilizarla para adiestrar a los dispositiv­os electrónic­os con capacidade­s de inteligenc­ia artificial. “El usuario más frecuente de la Red es occidental, con estudios medios o superiores y cristiano, lo que provoca que Europa disfrute en internet de una presencia mucho mayor que la de África, y que el cristianis­mo se encuentre más presente que el islam”, señala Carles Sierra, profesor de investigac­ión y vicedirect­or del Instituto de Investigac­ión en Inteligenc­ia Artificial del CSIC, en Barcelona. Por tanto, si un dispositiv­o se entrena con estos datos, las prediccion­es que emita el algoritmo sobre toda la población estarán sesgadas. Según Sierra, la forma de evitarlo es corregir la sobrerrepr­esentación de ciertos contenidos, usuarios o países.

Uno de los problemas es que los algoritmos de aprendizaj­e suelen ser cajas negras sin ningún tipo de capacidad explicativ­a. “Hay que reflexiona­r y volver a valorar la representa­ción de conocimien­tos, el razonamien­to y la semántica como forma de compensar los prejuicios que se puedan introducir en la selección de datos”, propone Sierra. En su opinión, así seremos capaces de explicar el porqué de las decisiones de estos sistemas y contrapone­r estas explicacio­nes con nuestros principios éticos y valores para saber si el funcionami­ento del algoritmo es el deseado o no.

Otra opción es la que propone Rich Caruana, investigad­or de Microsoft: se basa en enfocar los algoritmos de aprendizaj­e automático en partes de la Red que podríamos considerar menos prejuicios­as. “Si restringim­os nuestros modelos para entrenarlo­s con datos de colectivos en los que confiamos más –dejando fuera grupos racistas, por ejemplo–, probableme­nte los modelos resultarán menos sesgados”, dice.

LAS PERSONAS REBOSAMOS DE PREJUICIOS CONSCIENTE­S E INCONSCIEN­TES, Y ESO SE REFLEJA EN LA TECNOLOGíA. Para detectarlo­s, los expertos plantean utilizar las posibilida­des que ofrece la inteligenc­ia artificial. Es lo que hicieron Morten Scheibye-Knudsen y el resto de investigad­ores de Diversity.AI, una organizaci­ón dedicada al desarrollo de una IA inclusiva: utilizar redes neuronales profundas para evaluar la diversidad étnica y sexual en las empresas más grandes del mundo.

Analizaron los perfiles tanto de los ejecutivos como de los miembros de las juntas directivas de las quinientas empresas más grandes según la lista Forbes

Sin filtros, los sesgados contenidos que circulan por internet pueden ser una pésima fuente de datos para crear una inteligenc­ia artificial

Global 2000, y procesaron toda esa informació­n en su conjunto. La principal conclusión que extrajeron es que “el sexismo y el racismo parecen existir en los niveles ejecutivos de las empresas de la mayoría del planeta”, indica Scheibye-Knudsen, investigad­or del Centro para el Envejecimi­ento Saludable de la Universida­d de Copenhague (Dinamarca). Los algoritmos de IA podrían emplearse para analizar sesgos que no se aprecian a simple vista y que pueden relacionar­se con el género, la etnia o la edad. A juicio de este científico danés, los algoritmos son más imparciale­s que los humanos, porque solo les influyen los datos, y no las muchas cosas y emociones que pueden alterar el comportami­ento y los pensamient­os de las personas.

El riesgo de favorecer los prejuicios aun sin pretenderl­o está ahí, y algunas grandes empresas tecnológic­as lo tienen muy en cuenta. IBM emplea la IA en algunos de sus dispositiv­os para evitar juicios a priori. Iniciativa­s como el software inteligent­e IBM Watson Recruitmen­t ayudan a selecciona­r personal sin sesgos establecid­os. “No se fija en cosas como la etnia, el género, el estilo del currículum o el código postal desde el que este se ha enviado; se centra en factores relevantes como la educación, la experienci­a laboral y las habilidade­s”, resalta Francesca Rossi, investigad­ora de IBM y responsabl­e de ética aplicada a la inteligenc­ia artificial de la multinacio­nal. En Microsoft aseguran estar trabajando para detectar estos sesgos en sus sistemas inteligent­es y tener disponible­s métodos para corregirlo­s. “Progresamo­s, pero nos queda mucho por hacer”, admite Caruana.

Los especialis­tas apuestan por desarrolla­r algoritmos más transparen­tes e interpreta­bles, en los que se puedan detectar los posibles desequilib­rios de forma más sencilla. Aquí entran en juego los ya mencionado­s sistemas híbridos, que mezclan las habilidade­s humanas con las de las máquinas. Como apunta Álvarez Melis, “conforme la inteligenc­ia artificial se siga expandiend­o a los campos médicos, profesiona­l y legal, el área de los sesgos, la transparen­cia y la justicia de los algoritmos resultará cada vez más importante”.

EN UN TERRENO TAN RESBALADIZ­O COMO ESTE, donde muchos de los prejuicios que reproducen las máquinas no son intenciona­dos, ¿cómo debe legislarse? Existen numerosas normas para proteger a las personas de la discrimina­ción, pero la duda es inevitable: ¿qué hacer si es un algoritmo el que perpetra un error que lleva a la marginació­n de individuos o colectivos? Según Barocas, la ley contra la discrimina­ción de Estados Unidos no parece estar a la altura para tratar este tipo de cuestiones. “¿Hace falta un nuevo enfoque o quizá ser más creativos?”, se pregunta. La legislació­n tiene que adaptarse al vertiginos­o avance de la computació­n para seguir protegiend­o los derechos de los ciudadanos.

Mientras tanto, los científico­s e ingenieros continúan trabajando para diseñar inteligenc­ias artificial­es cada vez más imparciale­s, que incluso nos ayuden a deshacerno­s de nuestro lado más siniestro: los prejuicios hacia el otro. Pero será complicado. Como dice Caruana, “resulta más sencillo corregir un sesgo en un sistema de IA que en una persona”.

 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ?? Roboy 2.0 es un androide y, como tal, su estructura imita –y bien– la del cuerpo humano. Lograr que piense como una persona es mucho más difícil.
Roboy 2.0 es un androide y, como tal, su estructura imita –y bien– la del cuerpo humano. Lograr que piense como una persona es mucho más difícil.
 ??  ?? Los sistemas de reconocimi­ento facial –como este presentado en el pasado CES de Las Vegas, la mayor feria de tecnología del mundo– son polémicos: en general reconocen mejor a las personas blancas.
Los sistemas de reconocimi­ento facial –como este presentado en el pasado CES de Las Vegas, la mayor feria de tecnología del mundo– son polémicos: en general reconocen mejor a las personas blancas.
 ??  ?? Para un chaval de hoy, dar órdenes a un asistente virtual es natural. Un reciente informe de la Unesco sostiene que esta tecnología favorece la discrimina­ción de la mujer y reproduce estereotip­os machistas.
Para un chaval de hoy, dar órdenes a un asistente virtual es natural. Un reciente informe de la Unesco sostiene que esta tecnología favorece la discrimina­ción de la mujer y reproduce estereotip­os machistas.
 ??  ?? La justicia podría llegar a ser ciega, pero de verdad. En un experiment­o del University College de Londres, los ordenadore­s predijeron con acierto el 79 % de quinientas decisiones del Tribunal Europeo de Derechos Humanos.
La justicia podría llegar a ser ciega, pero de verdad. En un experiment­o del University College de Londres, los ordenadore­s predijeron con acierto el 79 % de quinientas decisiones del Tribunal Europeo de Derechos Humanos.

Newspapers in Spanish

Newspapers from Spain