11 de enero 2025
Dólar El Observador | Auspicio BROU Cotizaciones
Compra 42,75 Venta 45,25
11 de enero 2025 - 5:00hs

Lo que leés y ves en Instagram y Facebook puede cambiar la forma en que percibís la realidad.

Mark Zuckerberg, dueño de Meta, decidió eliminar, empezando por Estados Unidos, el programa de verificadores de datos de estas plataformas, que estaban encargados de "sugerir" si una publicación era falsa o engañosa.

En un posteo en su cuenta personal, Zuckerberg dijo que el sistema de chequeo tenía "demasiados errores" y "demasiada censura". Además, acusó a los chequeadores de estar sesgados políticamente.

Más noticias

"Estamos restaurando la libertad de expresión en nuestras plataformas", afirmó en un video publicado el martes en sus redes sociales, en el que anuncia el fin del fact-checking en Estados Unidos.

Zuckerberg dijo que "los verificadores de hechos han sido demasiado parciales políticamente y destruyeron más confianza de la que han creado, especialmente en Estados Unidos". También afirmó que es momento de "retomar los principios fundamentales de la libertad de expresión".

¿Cómo nació el programa de Meta?

En 2016, con el auge del debate sobre desinformación, y luego del escándalo de Cambridge Analytica (el uso indebido de datos personales de millones de usuarios de Facebook para influir en elecciones y campañas políticas a nivel global), la Red Internacional de Chequeadores de Información (IFCN) instó a Zuckerberg a abordar el problema, lo que llevó a la plataforma a impulsar (y financiar) programas de colaboración entre plataformas y organizaciones de fact-checking.

¿Cómo se eligen a quienes forman parte del programa de Meta; quiénes chequean?

Hoy son más de 80 organizaciones que participan en la verificación en más de 60 idiomas en todo el mundo, según su sitio web.

Una de ellas es Chequeado, que coordina la red LatamChequea, que incluye a 47 organizaciones latinoamericanas. De estas, aproximadamente la mitad participa en los programas de Meta.

Según el gigante tecnológico, estas organizaciones deben estar certificadas en la IFCN, que exige y controla que las organizaciones asuman compromisos como "imparcialidad y neutralidad", "transparencia de las fuentes", "transparencia de la organización y su forma de financiarse", "transparencia de la metodología" y "política de correcciones abierta y honesta".

Suhr explicó que los chequeadores deben someterse a una revisión anual para garantizar que no haya sesgos en su trabajo. Esta evaluación, realizada por la IFCN, revisa si cumplen criterios como transparencia, rigor metodológico y corrección de errores. También incluye una revisión de los contenidos para asegurarse de que no favorecen ideologías o posturas políticas específicas.

Todas ellas deben informar a la gente los "métodos públicos" que utilizan para llegar a calificar una publicación como falsa, engañosa o que le falta información tras algo que verificaron.

¿Cómo es el proceso de verificación?

La motivación de analizar un posteo nace desde la propia organización, y no de Meta. Ellos intentan identificar información relevante (potencialmente viral o riesgosa), analizarla según criterios internos, y etiquetarla como falsa o engañosa, acompañándola de una nota explicativa con evidencia.

“Nosotros vemos de todo lo que está circulando qué nos parece relevante; cosas que son claramente ciertas no las vamos a seleccionar", contó a El Observador Olivia Suhr, integrante de Chequeado.

Dependiendo de la complejidad del posteo, el análisis puede ser de "unas horas hasta unos días", comentó Suhr, integrante de Chequeado.

Luego de que el verificador muestra un contenido como "falso" o "alterado", Meta reduce "drásticamente" su distribución, indicó, pero nunca la elimina. Lo que hacen es aplicar etiquetas de advertencia.

Entonces, cuando alguien intenta compartir una publicación analizada y calificada por un verificador, se muestra un aviso emergente (una ventanita) que le avisa lo que está a punto de compartir.

Suhr aclaró que la decisión final de qué se hace con un contenido calificado no es de los verificadores, sino de Meta. “A nosotros siempre nos dijeron, y lo han dicho públicamente, que el sistema no baja contenido, sino que lo que hace es reducir visibilidad", indicó.

Si bien Zuckerberg ahora dice que este programa ha fomentado "la censura", el apartado en su sitio web que cuenta detalles del programa revela una encuesta que expresa lo contrario: el 74 % de las personas que vieron estas advertencias en la plataforma "cree que son suficientes o aceptarían más etiquetas sobre información falsa". Además, el "63 % considera que las etiquetas se usaron de manera adecuada".

¿Y qué impacto tiene ahora que se elimina?

La eliminación del programa genera preocupaciones sobre el impacto en la circulación de noticias falsas y en la calidad del debate público. Se teme que esta decisión aumente la viralidad de contenidos polarizantes y fomente un entorno de desinformación.

"Lo que uno piensa es que esto va a amplificar las interacciones basadas en conflictos, sentimientos negativos y desinformación", comentó Brian Majlin, coordinador académico de la carrera de Periodismo en Universidad ORT Uruguay y coordinador y editor responsable de La Diaria Verifica.

La periodista filipina y ganadora del Premio Nobel de la Paz, María Ressa, alertó que Facebook podría facilitar la propagación de "mentiras, ira, miedo y odio" entre sus usuarios, lo que derivaría en un "mundo sin hechos".

Los verificadores de información sacaron un comunicado enojados por esta decisión. "Los chequeadores no censuran", dijeron, en respuesta a lo que dijo Zuckerberg.

Los chequeadores no deciden qué ocurre con los contenidos. Su trabajo se limita a determinar la veracidad de publicaciones mediante "un riguroso proceso de verificación que sigue un método público".

La palabra final sobre qué se hace con ese contenido es definición de Meta.

"No me parece que sea censura decir que algo es verdadero o falso, o que está sacado de contexto", agregó a El Observador Majlin.

Y en este sentido agregó Olivia Suhr: "Decir que algo es falso también es parte de la libertad de expresión".

¿Cómo será el nuevo chequeo? ¿Igual a X? ¿Cómo es en X?

Zuckerberg no dio detalles sobre cómo será el nuevo programa de verificación de contenidos. Solo aludió que se basará al que implementa X, la red social que Elon Musk adquirió hace casi tres años y que eliminó el antiguo sistema de verificación de contenidos, despidiendo a moderadores de contenidos.

En su reemplazo, incorporó las llamadas Notas de comunidad. En su caso no son verificadores de datos independientes, sino usuarios "comunes" de X que pueden advertir que un posteo es falso.

elon musk mark zuckerberg.jpg

¿Cómo funciona? Quien quiera advertir que un posteo es fraudulento debe estar unido a X desde hace al menos seis meses y no haber incumplido las reglas de la plataforma desde el 1º de enero de 2023. Además, debe tener un número de teléfono en una "compañía telefónica de confianza".

Luego, debe aceptar algunos pasos minúsculos. Por ejemplo, aceptar "respetar los valores" de quienes hacen Notas de la comunidad. Y se debe estar de acuerdo en "contribuir a generar entendimiento", "actuar de buena fe" y "ser de ayuda, incluso con quienes no están de acuerdo". Con solo aceptar eso, ya podés ser un verificador de datos.

Cualquiera que ve un contenido que pueda ser falso en X lo que tiene que hacer es apretar los tres puntos del posteo, y solicitar una "nota de la comunidad". X aclara que estas notas no pueden ser modificadas por el equipo interno; es una medida que solo adoptan quienes decidan aludir al tuit en cuestión.

¿Y cuándo aparecen notas? "Solo se muestran en los posts si son calificadas como útiles por un número suficiente de personas con diferentes puntos de vista".

En algunos casos, funciona. Como por ejemplo, en este video hecho con inteligencia artificial, que se ve el cartel de Hollywood rodeado de un incendio en Los Ángeles, una de las noticias de la última semana. El tuit tiene una nota que dice: "Esto es falso, el letrero de Hollywood está bien y no está cerca del incendio actual, que está bajo control".

Embed - https://publish.twitter.com/oembed?url=https://x.com/ChampagneSloshy/status/1877239939017970065&partner=&hide_thread=false

Pero no siempre pueden tener una verificación que sea real. Además, expertos consultados por El Observador cuestionan que no se especifique "quién aportó" esta nota ni con qué interés.

"Cualquiera puede subir el contexto y poner en duda una versión o una declaración", opinó Majlin.

"Guardé un posteo que era verdadero, pero la comunidad le agregó contexto y lo hizo quedar en duda", indicó.

¿Qué pasó en X tras el retiro de los chequeadores que decidió Musk y qué impacto tiene en X?

"No ha sido muy efectivo en reducir la visibilidad de la desinformación", opinó Suhr. Su organización cita algunos estudios en donde dan cuenta de esto. Uno es el de The Washington Post, quien durante la campaña electoral de EEUU dijo que estaba "fracasando en un momento crítico". Más de 160.000 usuarios han propuesto notas en 2024, un aumento considerable respecto al año anterior.

El Centro para Combatir el Odio Digital en EEUU rastreó cómo Community Notes respondió 283 publicaciones. En el 91 % de esos posteos los participantes no llegaron a un consenso bajo el sistema de votación de Community Notes, y el programa no proporcionó contexto público a la afirmación engañosa.

Hay otros estudios que fueron hechos por científicos especializados en la temática, que aseguran que si bien hay un "aumento en las verificaciones" con esta propuesta de Musk, no existió una "reducción significativa" en la interacción de los usuarios con publicaciones engañosas.

Otra investigación de la Universidad del Sur de California (USC) analizó publicaciones en inglés en X entre enero de 2022 y junio de 2023, y concluyó que el discurso de odio en la plataforma creció un 50 %, mientras que el uso de expresiones transfóbicas aumentó un 260 %.

La plataforma enfrenta constantes acusaciones de facilitar la difusión de información errónea desde que Elon Musk redujo significativamente los equipos de moderación. Según Balagué, esto se debe principalmente a que "X promueve el radicalismo", lo que hace que las noticias falsas sean más visibles en comparación con otras plataformas.

¿Qué impacto tiene en medios de comunicación?

Por ahora, el comienzo es en Estados Unidos. Pero podría impactar hasta el resto del mundo, ya que hay más de 80 organizaciones que participan en la verificación en más de 60 idiomas en todo el mundo.

Según pudo saber El Observador, organizaciones latinoamericanas están preocupadas sobre cómo esto puede impactar en la región.

Algunas de ellas tienen una dependencia financiera 100% en este programa de Meta. Según AFP, que participa del programa, son 10 en total. Otras, como Chequeado, tienen otras fuentes de ingreso que no dependen de este programa.

¿Por qué toma esta decisión Zuckerberg; qué hay detrás?

En 2016, se puso mucho foco en la desinformación. Y se puso mucho foco en combatirla. Por eso, Meta (Facebook en ese momento) lanzó un programa de verificación en el que financió a organizaciones en todo el mundo. Se tratan de expertos dedicados especialmente a este tema.

Pero, ¿por qué Zuckerberg antes estaba a favor de una verificación de datos independiente y ahora parece estar en contra?

El fundador de Facebook toma esta decisión en tiempos de cambios políticos en Estados Unidos, donde Donald Trump está a punto de asumir la presidencia. Hace pocos días, Zuckerberg anunció dos nuevos directivos de Meta afines al republicano y a Elon Musk, quien hizo campaña por Trump en la campaña presidencial y ocupará un rol en el nuevo gobierno.

Además, "Zuck" cenó con él en noviembre y donó un millón de dólares para su ceremonia de investidura el 20 de enero. Y dijo que trasladará sus equipos de confianza y seguridad desde California (oeste) hacia Texas (sur), un estado más conservador.

Hay expertos que aluden a "celos multimillonarios". "Elon Musk está hoy en todas partes y tiene toda esta influencia... Creo que hay potencialmente un poco de celos multimillonarios" en el comportamiento de Zuckerberg, comentó Andrew Selepak, profesor de medios de comunicación de la Universidad de Florida, a la agencia AFP.

Hay otros motivos. Una nota de AFP habla de que Zuckerberg busca "apaciguar" el enojo de Trump hacia él luego de que su perfil fuera vetado en 2021 cuando sus fans asaltaron el Capitolio, sede del Congreso estadounidense.

"Son empresas tecnológicas con negocios vinculados al gobierno de Estados Unidos; Zuckerberg también estará cuidando su patrimonio", indicó.

Temas:

Facebook Instagram Mark Zuckerberg Estados Unidos Meta

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos