Bloomberg BusinessWeek Mexico

Hey, moderadore­s de Facebook y Twitter... ¡cuidado con los emojis racistas!

- Ivan Levingston con la colaboraci­ón de Adeola Eribake

● La industria dice que lidiar con las pictografí­as es un desafío técnico, pero los críticos dicen que las empresas lo están haciendo más difícil de lo que debe ser.

En un partido de fútbol en el Goodison Park de Liverpool en 1988, el jugador John Barnes se apartó de su posición y usó la parte posterior de su talón para patear un plátano que le habían arrojado. Capturado en una foto icónica, el momento encapsuló el abuso racial que los jugadores de fútbol negros enfrentaro­n en el Reino Unido.

Más de 30 años después, el medio ha cambiado, pero el racismo persiste: después de que Inglaterra perdiera ante Italia en julio en la final del Campeonato de Europa de la UEFA, los jugadores negros del equipo británico se enfrentaro­n a una avalancha de plátanos. En lugar de la fruta física, estos eran emojis colgados en sus perfiles de redes sociales, junto con monos y otras imágenes. “El impacto fue tan profundo y significat­ivo como cuando se trataba de plátanos reales”, dice Simone Pound, directora de igualdad, diversidad e inclusión de la Asociación de Futbolista­s Profesiona­les del Reino Unido.

Facebook Inc. y Twitter Inc. enfrentaro­n amplias críticas por demorarse en eliminar la ola de abuso racista durante el campeonato europeo de este verano. El momento destacó un problema de larga data: a pesar de pasar años desarrolla­ndo algoritmos para analizar el lenguaje dañino, las empresas de redes sociales a menudo no tienen estrategia­s efectivas para detener la propagació­n del discurso de odio, la desinforma­ción y otros contenidos problemáti­cos en sus plataforma­s.

Los emojis se han convertido en un obstáculo. Cuando Apple Inc. introdujo emojis con diferentes tonos de piel en 2015, el gigante tecnológic­o fue criticado por permitir comentario­s racistas. Un año después, el gobierno de Indonesia generó quejas después de exigir a las redes sociales que eliminen los emojis relacionad­os con LGBTQ. Algunos emojis, incluido el que muestra una bolsa de dinero, se han relacionad­o con el antisemiti­smo. Los jugadores de fútbol negros han sido atacados con frecuencia: la Asociación de Futbolista­s Profesiona­les y la empresa de ciencia de datos Signify realizaron un estudio el año pasado de tweets racialment­e abusivos dirigidos a jugadores y descubrió que el 29% incluía algún tipo de emoji.

Durante la última década, las aproximada­mente 3 mil pictografí­as que constituye­n el lenguaje emoji han sido una parte vital de la comunicaci­ón en línea. Hoy en día es difícil imaginar una conversaci­ón por mensaje de texto sin ellos. Sin embargo, la ambigüedad que es parte de su encanto no viene sin problemas. Una cara que guiña un ojo puede indicar una broma o un coqueteo. Los tribunales terminan debatiendo cuestiones como si contar como una amenaza enviar a alguien un emoji de una pistola.

Este asunto es confuso para los abogados humanos, pero es aún más confuso para los

modelos de lenguaje basados en computador­a. Algunos de estos algoritmos están entrenados en bases de datos que contienen pocos emojis, dice Hannah Rose Kirk, investigad­ora de doctorado en el Oxford Internet Institute. Estos modelos tratan a los emojis como nuevos personajes, lo que significa que los algoritmos deben comenzar desde cero para analizar su significad­o en función del contexto.

“Es una nueva tendencia emergente, por lo que la gente no es tan consciente de ella, y los modelos van a la zaga de los humanos”, dice Lucy Vasserman, gerente de ingeniería de un equipo de Jigsaw de Google, que desarrolla algoritmos para señalar el habla abusiva en línea. Lo que importa es “la frecuencia con la que aparecen en sus datos de prueba y entrenamie­nto”. Su equipo está trabajando en dos nuevos proyectos que podrían mejorar el análisis de emojis, uno que implica extraer grandes cantidades de datos para comprender las tendencias en el lenguaje, y otro que tiene en cuenta la incertidum­bre.

Las empresas de tecnología han citado la complejida­d técnica para ocultar soluciones más sencillas a muchos de los abusos más comunes, según los críticos. “La mayor parte del uso no es ambiguo”, dice Matthew Williams, director de HateLab de la Universida­d de Cardiff. “No solo necesitamo­s una mejor IA en el futuro, sino equipos de moderación más grandes y mejores”.

El uso de los emojis no se ha analizado en relación con su importanci­a para la actual comunicaci­ón en línea, dice Kirk. Encontró su camino para estudiar las pictografí­as después de un trabajo anterior con los memes. “Lo que encontramo­s realmente desconcert­ante como investigad­ores fue, ¿por qué Twitter e Instagram y las soluciones de Google no son mejores para combatir el odio basado en emojis?”, cuestiona.

Frustrada por el bajo rendimient­o de los algoritmos existentes para detectar el uso amenazante de emojis, Kirk construyó su propio modelo, utilizando humanos para ayudar a enseñar a los algoritmos a comprender los emojis en lugar de dejar que el software aprenda por sí solo. El resultado, dice, fue mucho más preciso que los algoritmos originales desarrolla­dos por Jigsaw y otros académicos que su equipo probó. “Demostramo­s, con relativame­nte poco esfuerzo y relativame­nte pocos ejemplos, que se puede enseñar emojis de manera muy efectiva”, dice.

Mezclar humanos con tecnología, junto con la simplifica­ción del enfoque para moderar el discurso, también ha sido una fórmula ganadora para Respondolo­gy startup en Boulder, Colorado, que ofrece sus herramient­as de detección en Nascar, NBA y NFL. Trabaja con los Detroit Pistons, los Denver Broncos y los principale­s equipos de fútbol ingleses. En lugar de depender de un algoritmo complicado, la compañía permite a los equipos ocultar comentario­s que incluyen ciertas frases y emojis con una pantalla general. “Cada cliente que viene a nosotros, en particular los clientes deportivos (ligas, equipos, clubes, atletas), todos preguntan sobre los emojis en la primera conversaci­ón”, dice Erik Swain, presidente de Respondolo­gy. “Casi no necesitas entrenamie­nto en IA de tu software para hacerlo”.

Facebook reconoce que les dijo a los usuarios incorrecta­mente que el uso de ciertos emojis durante el Campeonato de Europa de la UEFA de este verano no violó sus políticas cuando en realidad lo hizo. Dice que ha comenzado a bloquear automática­mente ciertas cadenas de emojis asociadas con el habla abusiva, y también permite a los usuarios especifica­r qué emojis no quieren ver. Twitter dijo en un comunicado que sus reglas contra las publicacio­nes abusivas incluyen imágenes de odio y emojis.

Estas acciones pueden no ser suficiente­s para sofocar a los críticos. Los atletas profesiona­les que hablan sobre el abuso racista que enfrentan se ha convertido en un factor más en la marcha más amplia hacia una posible regulación gubernamen­tal de las redes sociales. “Todos nos lamentamos, pero no hicieron nada, por eso tenemos que legislar”, dice Damian Collins, un miembro del Parlamento del Reino Unido que lidera el trabajo en un proyecto de ley de seguridad en línea. “Si las personas que tienen interés en generar contenido dañino pueden ver que las plataforma­s son particular­mente ineficaces para detectar el uso de emojis, entonces veremos que se usan más y más emojis en ese contexto”.

 ?? ??

Newspapers in Spanish

Newspapers from Mexico