¿Qué pasó con restricciones en redes sociales tras video del asesinato de un hijo a su padre?
Expertos señalan que es importante que la moderación de contenidos por personas en YouTube y demás plataformas en vez de algoritmos o inteligencia artificial.
El video gráfico de un hombre de Pensilvania acusado de decapitar a su padre que circuló durante horas por YouTube ha vuelto a poner bajo los reflectores las deficiencias de las empresas de redes sociales para impedir que se difundan por la red publicaciones aterradoras.
La policía informó el miércoles 31 de enero que acusó a Justin Mohn, de 32 años, de asesinato en primer grado y mal manejo de un cadáver después de que decapitara a su padre, Michael, en su casa del condado de Bucks y lo publicara en un video de 14 minutos en YouTube que cualquiera podía ver en cualquier lugar.
La noticia del suceso, que ha suscitado comparaciones con los videos de decapitaciones publicados en internet por miembros del grupo Estado Islámico en el momento de su apogeo hace casi una década, se conoció mientras los directores generales de Meta, TikTok y otras empresas de redes sociales testificaban ante legisladores federales frustrados por lo que consideran una falta de progreso en materia de seguridad infantil en internet. YouTube, propiedad de Google, no asistió a la audiencia a pesar de ser una de las plataformas más populares entre los adolescentes.
El inquietante video de Pensilvania surgió tras otras horribles grabaciones que han sido difundidas en las redes sociales en los últimos años, incluyendo tiroteos masivos transmitidos en vivo desde Louisville, Kentucky; Memphis, Tennessee; y Buffalo, Nueva York; así como masacres filmadas en el extranjero en Christchurch, Nueva Zelanda, y la ciudad alemana de Halle.
Pete Feeney, capitán de la policía del distrito de Middletown, explicó que el video de Pensilvania se publicó alrededor de las 22:00 horas del martes y permaneció en línea unas cinco horas, un lapso que plantea dudas sobre si las plataformas de redes sociales están cumpliendo con prácticas de moderación que podrían ser más necesarias que nunca en medio de las guerras de Gaza y Ucrania, y de unas elecciones presidenciales extremadamente conflictivas en Estados Unidos.
“Es otro ejemplo del flagrante fracaso de estas empresas a la hora de protegernos”, afirmó Alix Fraser, directora del Consejo para Redes Sociales Responsables de la organización sin ánimo de lucro Issue One (Asunto Uno). “No podemos confiar en que califiquen sus propios deberes”.
Un portavoz de YouTube dijo que la compañía había retirado el video, eliminado el canal de Mohn y estaba rastreando y eliminando cualquier republicación que pudiera aparecer. La plataforma para compartir videos afirma que utiliza una combinación de inteligencia artificial y moderadores humanos para supervisar su contenido, pero no respondió a preguntas sobre cómo se detectó el video o por qué no se hizo antes.
Las principales empresas de redes sociales moderan los contenidos con la ayuda de potentes sistemas automatizados, que a menudo pueden detectar contenidos prohibidos antes que un humano. Pero esa tecnología a veces se queda corta cuando un video es violento y gráfico de una forma nueva o inusual, como en este caso, explicó Brian Fishman, cofundador de la empresa de tecnología de confianza y seguridad Cinder.
Es entonces cuando los moderadores humanos son “realmente, realmente fundamentales”, dijo. “La Inteligencia artificial está mejorando, pero aún no ha alcanzado ese punto”.
Aproximadamente 40 minutos después de la medianoche del miércoles, hora del Este de Estados Unidos, el Foro Global de Internet contra el Terrorismo (GIFCT, por sus siglas en inglés), un grupo creado por empresas tecnológicas para impedir que este tipo de videos se difundan en la red, comunicó que había alertado a sus miembros sobre el video. El GIFCT permite que la plataforma con la grabación original envíe un “hash” —una huella digital correspondiente a un video— y notifica a casi dos docenas de otras empresas asociadas para que puedan restringirlo de sus plataformas.
Pero para el miércoles por la mañana, el video ya se había extendido a X, donde un clip gráfico de Mohn sujetando la cabeza de su padre permaneció en la plataforma durante al menos siete horas y recibió 20 mil visitas. La empresa, antes conocida como Twitter, no respondió a una solicitud de comentarios.
Los expertos en radicalización afirman que las redes sociales e internet han reducido la barrera de entrada para que la gente explore grupos e ideologías extremistas, permitiendo que cualquier persona que pueda estar predispuesta a la violencia encuentre una comunidad que refuerce esas ideas.
En el video publicado tras el asesinato, Mohn describía a su padre como un empleado federal con 20 años de antigüedad, propugnaba diversas teorías conspirativas y despotricaba contra el gobierno.
La mayoría de las plataformas sociales tienen políticas para eliminar contenidos violentos y extremistas. Pero no pueden detectarlo todo, y la aparición de muchos sitios nuevos, menos moderados, ha permitido que ideas más violentas se propaguen sin control, según Michael Jensen, investigador sénior del Consorcio para el Estudio del Terrorismo y las Respuestas al Terrorismo, con sede en la Universidad de Maryland.
A pesar de los obstáculos, las empresas de redes sociales deben estar más atentas a la regulación de los contenidos violentos, afirmó Jacob Ware, investigador del Consejo de Relaciones Exteriores.
“La realidad es que las redes sociales se han convertido en la primera línea del extremismo y el terrorismo”, afirmó Ware. “Eso va a requerir esfuerzos más serios y comprometidos para contrarrestarlos”.
Nora Benavidez, asesora jurídica del grupo de defensa de los medios Free Press, dijo que entre las reformas tecnológicas que le gustaría ver se encuentran una mayor transparencia sobre qué tipo de empleados se ven afectados por los despidos y una mayor inversión en trabajadores de las áreas dedicadas a preservar la seguridad en las plataformas digitales.
Google, propietaria de YouTube, despidió este mes a cientos de empleados que trabajaban en sus equipos de hardware, asistencia por voz e ingeniería. El año pasado, la empresa dijo que recortó 12 mil trabajadores “en todo Alphabet, áreas de producto, funciones, niveles y regiones”, sin ofrecer más detalles.
Nota original aquí
Fuente: López Dóriga Digital