Algunas denuncias indican que la empresa de Mark Zuckerberg no se decide a modificar el mecanismo porque genera interacciones, aunque ataque a grupos vulnerables y contradiga el objetivo de crear una red «significativa y saludable».
Ilustración: Pablo Blasberg
El algoritmo que facilita la circulación de discursos de odio se está
convirtiendo en un boomerang para Facebook e Instagram, pero algunas
denuncias indican que la empresa de Mark Zuckerberg no se decide a
modificarlo porque el mecanismo genera interacciones, aunque ataque a
grupos vulnerables y contradiga el objetivo de crear una red
«significativa y saludable», dijo este sábado Ezequiel Ipar, director
del Laboratorio de Estudios sobre Democracia y Autoritarismo (LEDA).
Los textos que promueven discursos de odio al parecer se profundizaron con la modificación del algoritmo de Facebook, el verdadero gestor de la interacción entre sus usuarios.
El tema tomó más fuerza cuando la exempleada de esa compañía Frances Haugen pidió regular al gigante de las redes sociales al que acusó, ante legisladores de los Estados Unidos de «financiar sus ganancias» con la seguridad de los usuarios.
Haugen reveló que Facebook sabe que sus sitios son potencialmente
dañinos para la salud mental de los jóvenes. «Casi nadie sabe lo que
sucede dentro de Facebook. Ocultan información al público, a sus
accionistas y a los gobiernos», agregó.
Desde la Argentina, en el LEDA, de la Universidad Nacional de San Martín
(Unsam) con investigadores del Conicet, Ipar y su equipo investigan
estas redes y las consecuencias de la aplicación del algoritmo diseñado
por la gente de Zuckerberg.
Haugen dijo que Facebook «puede dar cuenta y reconocer entre el 3 y el 5
por ciento de los discursos de odio de los mensajes de los 3.000
millones de usuarios. Pero parece que los controles funcionan en 50
lenguas, y Facebook tiene usuarios en 5.500. Es decir, que 5.450 viven
en un far west digital», sentenció Ipar.
«Casi nadie sabe lo que sucede dentro de Facebook. Ocultan información al público, a sus accionistas y a los gobiernos»Frances Haugen, exempleada de Facebook
Como ejemplo del discurso de odio y la falta de controles de la red, en octubre de 2018, The New York Times (NYT) denunció que militares birmanos usaron Facebook para justificar una limpieza étnica contra los rohinyas, una minoría musulmana, y argumentaron que el islam representa una amenaza para el budismo.
Ipar recordó también «casos de incitación a la violencia interétnica en Etiopía».
En noviembre de 2019, la BBC reprodujo el testimonio del atleta etíope Haile Gebrselassie,
quien denunció a Facebook como responsable de la matanza de 78 personas
debido a «la distribución de noticias falsas», explicó.
«Comenzaron a buscar por dónde se había generado el discurso de odio, y
descubrieron que fue a través de posteos en Facebook», explicó a Télam
el investigador.
«No fue la radio ni la televisión, ni un dictador hablando desde un
medio oficial; fue desde la capilaridad de Facebook donde se generó la
sensación de temor», agregó.
Pero la forma en la que Facebook trató «de resolver estos problemas, los terminó agudizando», dijo sobre la reformulación que hicieron del algoritmo.
«No fue la radio ni la televisión, ni un dictador
hablando desde un medio oficial; fue desde la capilaridad de Facebook
donde se generó la sensación de temor»Ezequiel Ipar
Ezequiel Ipar – Foto: Eliana Obregón
A continuación, los pasajes centrales de la entrevista de Télam a Ipar.
Télam: ¿Cuál es el objetivo del algoritmo?
Ezequiel Ipar: Vincular a las personas y saber lo que a un usuario puede
despertarle interés, en qué pondrá su atención. Por eso, se dice que
Facebook domina la atención de los individuos. Eso es lo que busca el
algoritmo: llamar tu atención, y relacionar a los usuarios.
T.: ¿Cómo asocia esa función del algoritmo con la difusión de los discursos de odio?
E.I.: Cuando empezaron a decaer las interacciones entre individuos, en
2017/2018, Facebook rediseñó su algoritmo para, dijeron, que los
usuarios tuvieran «una experiencia más saludable y significativa». Lo
que mostrarían de modo privilegiado ya no sería publicidad, sino lo que a
tus amigos les resultara interesante para promover más «likes»,
compartir más contenidos o incrementar el tráfico de comentarios. Así
fue que detectaron que empezaron a destacarse los discursos que
incitaban al odio en las interacciones. Se profundizó una interacción
relacionada al narcisismo del odio, pero no lo consideraron porque los
algoritmos cuantifican la interacción y la reacción de los usuarios, y
no la calidad o el contenido de las respuestas.
El algoritmo facilita la circulación de mensajes, y los discursos de
odio produjeron más interacciones en la red. Entre lo más saludable y lo
más significativo, el algoritmo promueve lo significativo para generar
mayor tráfico en la red. Así que es muy probable que el algoritmo de
Facebook esté incitando campañas de odio.
«Ellos mismos están sugiriendo que para que Facebook sea ‘significativa y saludable’ ahora se requiere algún tipo de evaluación y supervisión, saber qué está pasando en la red, y una regulación externa»
T.: El algoritmo evalúa la intensidad de circulación de los
mensajes, sin importar el contenido de los mismos. Es un hecho
matemático sin connotación humana. ¿Por qué Facebook no modifica su
algoritmo?
E.I.: Porque verificaron que lo que más repotencia la circulación de los
mensajes es, justamente, los mensajes con connotaciones de discurso de
odio.
T.: ¿Qué hacen con ese dato sabiendo que terminan facilitando ese tipo de mensajes?
E.I.: Estamos justo en ese momento. Haugen se dio cuenta de que en
Facebook sabían lo que estaban movilizando con su algoritmo, y también
que estaban dispuestos a no hacer nada para modificarlo. Ahora hay una
respuesta curiosa desde Facebook porque empiezan a sugerir la necesidad
de cierta regulación estatal dado que entendieron que hay algo del
propio espacio digital, que ellos crearon, que está intrínsecamente
descontrolado y que puede empezar a afectar a la plataforma y a su
negocio. Creo que se dieron cuenta de que también existe el riesgo de
que un buen porcentaje de sus usuarios se retiren de las redes por esa
distribución de discursos de odio y violencia. Ellos mismos están
sugiriendo que para que Facebook sea «significativa y saludable» ahora
se requiere algún tipo de evaluación y supervisión, saber qué está
pasando en la red, y una regulación externa.
«Imagino que se niegan a cambiarlo porque creen que la violencia y el discurso de odio son un problema social que se expresa en la red social»
T.: Pero no están permitiendo esa ventana de observación.
E.I.: Todavía no, y ese es el conflicto en el que estamos ahora. Por un
lado, hasta dónde -a partir de esta crisis- Facebook hará públicas las
informaciones de las que dispone, y hasta qué punto están dispuestos a
intervenir en la red como lo sugieren sus propios estudios. Esos
documentos demuestran que hay profesionales en Facebook que ya tienen
alternativas para modificar la circulación de los discursos de odio,
pero son cambios estructurales que pueden poner en juego una parte del
negocio. Uno de sus equipos estudió los temas de violencia, asedio y
discurso de odio en el algoritmo, y sugirió quitar la posibilidad de
compartir contenidos maliciosos. No eliminarlos, pero que tampoco puedan
compartirse. Parece que lo probaron y funcionó, pero decidieron no
adoptarlo. La crónica dice que ese documento interno llegó a las máximas
autoridades de la empresa y la respuesta fue que era muy buena
solución, pero que van a dejarla como una alternativa de emergencia.
Imagino que se niegan a cambiarlo porque creen que la violencia y el
discurso de odio son un problema social que se expresa en la red social,
pero no es un problema de la red social en sí misma.
«Imagino
que se niegan a cambiarlo porque creen que la violencia y el discurso
de odio son un problema social que se expresa en la red social». Foto:
Eliana Obregón
Millenials y mayores de 75 años, los principales propagadores del discurso de odio en la Argentina
Las generaciones Millenials y la Silenciosa, como se dio en llamar a los
mayores de 75 años, son las que mayor cantidad de discursos de odio
recirculan en las redes sociales, según una investigación realizada por
el LEDA, difundida este sábado.
«Entendemos por discursos de odio a cualquier tipo de discurso
pronunciado en la esfera pública que procure promover, incitar o
legitimar la discriminación, la deshumanización o la violencia hacia una
persona o un grupo de personas en función de la pertenencia de las
mismas a un grupo religioso, étnico, nacional, político, racial, de
género o cualquier otra identidad social», definió Ezequiel Ipar.
Y agregó que son discursos que, «de modo frecuente, generan un clima
cultural de intolerancia y odio y, en ciertos contextos, pueden provocar
prácticas agresivas, segregacionistas o genocidas en la sociedad
civil».
Desde LEDA investigaron indicadores sobre el discurso de odio (DDO) en
la esfera digital argentina a partir de una investigación realizada
sobre 3.140 casos relevados en mayores de 16 años, entre el 27 de
noviembre 2020 y el 3 de febrero 2021.
Entre los datos más significativos de la investigación se destacó que:
•El índice DDO se construyó a partir de tres discursos circulantes: uno racista con connotaciones segregacionistas muy fuertes, otro crítico de las posiciones ideológicas que discriminan al colectivo Lgbtiq+ y un tercero, deshumanizador hacia los extranjeros.
•Respecto a la variable edad, detectaron y calificaron de «llamativo» que los Millenials (24-40 años) son los que registran mayores grados de acuerdo y disposición a emitir o replicar discursos de odio, con un 31,1 por ciento, y que en un 51 por ciento los desaprueben. La Generación X (41 a 55 años) la aprueban en un 25,5 por ciento de los casos consultados, y los desaprueban en un 55,3 por ciento. Las puntas de aprobación y desaprobación las detenta la generación de los Baby Boomers (56 a 74 años), con un 19,6 y 64,3%.
•El índice de DDO por nivel educativo reveló que el 30,1 por ciento de la población con secundario incompleto es la que más aprueba o utiliza el discurso de odio, mientras la que más lo rechaza, un 68,2 por ciento, es la que tiene formación de posgrado completo.
•Por índice de ocupación, un 33,4 por ciento de quienes son empleadores o dueños de empresas son los que más promueven discursos de odio, y quienes más lo desaprueban, un 61 por ciento de los entrevistados, son cuentapropistas o trabajadores independientes.
f.Telam