Los moderadores de IA no pueden seguir el ritmo del nuevo lenguaje de la desinformación vacunal: los emojis

El lenguaje codificado no es nada nuevo, pero la escala a la que puede desplegarse a través de las redes sociales es esencialmente sin precedentes. Los observadores suelen comparar la moderación de contenidos en línea con juegos de Whack-a-Mole en los que las plataformas apenas pueden frenar la afluencia de información errónea dirigida, teorías de la conspiración, imágenes de propaganda y discursos de odio.

Según un informe de Bloomberg de la semana pasada, los antivacunas, en particular, dependen cada vez más del lenguaje codificado, a menudo utilizando emojis para transmitir información errónea y propaganda prohibida en plataformas de medios sociales como Facebook. Además, un antiguo ejecutivo de Facebook que supervisa las políticas públicas afirma que cada vez está más claro que los actuales programas de moderación de la IA no están a la altura del desafío, y hay razones para creer que quizá nunca lo estén.

"Todos estos sistemas que estas plataformas siguen construyendo están, francamente, todavía en su infancia de ser capaces de hacer algunas de las cosas que les gustaría que fueran capaces de hacer", Katie Harbath, CEO del grupo de estrategia de política tecnológica, Anchor Change y miembro sénior no residente del Atlantic Council Laboratorio de Investigación Forense Digital que anteriormente trabajó durante diez años como jefe de políticas públicas de Facebook, cuenta www.iconmedialab.es.

Reunirse y conversar dentro de grupos y páginas con nombres imprecisos como "Murió de repente". Bloomberg señala que los antivaxxers siguen vendiendo información errónea de la COVID-19, patentemente falsa, utilizando frases como "se ha comido el pastel" para referirse a la toma de vacunas. "A veces, los usuarios afirman que sus seres queridos han tomado cuatro o cinco 'trozos' de las vacunas de Pfizer o Moderna, utilizando emoji de pizza, magdalenas y diversas frutas para expresar su punto de vista", añade el informe.

El contexto es clave para marcar y eliminar los contenidos prohibidos, algo que se complica aún más para los programas de supervisión de la IA con la introducción de los lenguajes de códigos emoji. Moderación de contenidos por IA utiliza algoritmos de aprendizaje automático para identificar, marcar y, si es necesario, eliminar el contenido que identifica como problemático -típicamente imágenes y escritos sexualmente explícitos o violentos, pero el lenguaje codificado y los emojis siguen siendo a menudo un talón de Aquiles para ellos. "[M]as máquinas aún pueden pasar por alto algunos matices importantes, como la desinformación, la parcialidad o el discurso de odio. Así que conseguir un contenido cien por cien claro, seguro y fácil de usar en Internet parece casi imposible", explica un resumen del servicio de anotación de datos Label Your Data.

Harbath afirma que el reto para abordar tanto los emojis como el lenguaje codificado es doble, tanto para los sistemas de IA como para los supervisores humanos. "En primer lugar, hay que volver a entrenar a los moderadores para que sean capaces de entender ese contexto y averiguar si están tratando de usar este emoji", dice. "Eso puede ser un reto, basado en lo mucho que [context and material] los moderadores de contenido reciben o no". Harbath dice que estos moderadores a menudo sólo ven una sola publicación o mensaje a la vez, privándoles de un contexto potencialmente vital para las decisiones de aplicación.

Intentar adelantarse a estos grupos también presenta sus propios retos. Harbath explica que actualizar o ampliar los clasificadores y la nomenclatura de un sistema de moderación también puede conducir a un mayor número de falsos positivos, creando nuevos dolores de cabeza y complicaciones, a la vez que hace más daño que bien. "La mayoría de la gente utiliza los emojis de forma relativamente benigna", dice, ".Es una lucha constante con la que todas las plataformas tienen que lidiar".

La empresa matriz de Facebook, Meta, optó por citar sus éxitos en este ámbito cuando se le pidió que comentara el asunto. "Los intentos de evadir la detección o la aplicación de la ley son una señal de que estamos aplicando eficazmente nuestras políticas contra la desinformación COVID", escribe por correo electrónico Aaron Simpson, responsable de comunicación de políticas de Facebook. Simpson también señala que, desde el inicio de la pandemia, Facebook ha eliminado "más de 27 millones de piezas de contenido" por violar las políticas relativas a la desinformación sobre la COVID-19 tanto en Facebook como en Instagram. Sólo Facebook cuenta con aproximadamente 241 millones de estadounidenses en su plataforma a partir de este año.

A pesar de estos numerosos problemas, todavía hay resquicios de esperanza. Los programas de IA siguen mejorar su eficacia y, dada su propia naturaleza, el lenguaje codificado suele ser utilizado únicamente por personas ya "en el conocimiento y por lo tanto no es necesariamente fundamental para los esfuerzos de reclutamiento o la difusión de propaganda. Puede que sea un pequeño consuelo, pero personas como Harvath se muestran cautelosas ante las alternativas, e instan a que haya más programas de alfabetización digital en lugar de tácticas como la prohibición total de los emojis.

"Se podría ir al por mayor en la prohibición de esas cosas por completo, pero entonces sólo irían [back] a las palabras codificadas", dice Harvath. "Se está llegando al punto de, por ejemplo, 'simplemente cerrar Internet'".

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Subir

Este sitio web utiliza cookies para garantizar una mejor experiencia de navegación. Más información