Facebook: Contenidos:
[No queremos erigirnos en juez sobre la verdad en internet. En sentido estricto no se puede decir que las palabras causen directamente la muerte y lesiones de individuos sometidos a una denigración sistemática.]
Redes sociales y cambios políticos:
● Las revueltas árabes de 2011 es probable que queden para la historia como símbolo del momento en que nació otro sujeto político: las redes sociales. Con la clase obrera fragmentada en grupos de intereses diversos y, a menudo, contradictorios, con los valores de la burguesía desvencijados por la arrogante hegemonía del poder financiero, se venía buscando un nuevo sujeto de cambio. [...]
Las redes sociales significan la multiplicación y la propagación de la información hasta límites insospechados. Es una nueva cultura que mezcla la relación punto a punto -el individualismo, la gran conquista de la modernidad que ha llegado a amenazar la misma idea de sociedad en los últimos años- con la realidad de una conexión constante, creativa y amplificada con los demás. Este fenómeno transversal que son las redes rompe la sumisión al Uno que, como explicó La Boétie, ha conformado la servidumbre voluntaria y la cultura del miedo que tiene atrapados a los ciudadanos. Todo lo oculto puede disolverse con los rayos de las redes sociales. Esta es la gran arma y el gran problema. ¿Se lo van a permitir? ¿Se lo podrán impedir? No hay consolidación de un nuevo sujeto político sin confrontación. (Josep Ramoneda)
|
El poder religioso de Irán interviene directamente para censurar las comunicaciones a través de Internet. Considera necesario proteger a los internautas de contenidos políticos sediciosos. Las medidas restrictivas se multiplicaron a raíz de las protestas de 2009 contra la elección del candidato radical Ahmadineyad. Facebook y Twitter quedaron censurados en todo el país.
Una red social local llamada Cloob.com fue enteramente bloqueada tres veces y en 2017 sus gestores decidieron que se enfrentaban a demasiados impedimentos de carácter político para continuar.
Inacción ante las denuncias (2015-2017):
En 2015 la UE en conjunto y muchos países de forma individualizada han expresado oficialmente su inquietud ante la difusión en plataformas como Facebook y Youtube de contenidos que incitan a actuaciones violentas. Estas responden que no pueden evitar que el contenido sea subido y que atenderán las quejas específicas e individualizadas sin tomar medidas más proactivas.
En agosto de 2015 el ministro de Justicia alemán Heiko Maas lanza un ultimátum sobre las peticiones de supresión ignoradas. Se mostró contundente ante la inactividad contra las publicaciones racistas y antisemitas. La negación del Holocausto y los actos de violencia racial son crímenes en Alemania y es indistinto si están publicados en Facebook o escritos en la plaza pública. Abordó el problema directamente enviando una carta al director de políticas públicas de Facebook, Richard Allan.
En 2016 se difundió que en un foro público un empleado de Facebook dijo que negar el Holocausto es un debate histórico legítimo que debe llevarse a cabo.
En mayo tres asociaciones antirracistas francesas presentan denuncias contra Facebook, Twitter y Youtube basándose en seguimientos detallados y cuantificados sobre las eliminaciones.
Respecto a las solicitudes los mensajes de odio eliminados suponían el 4% (Twitter), 7% (Youtube) y 34% (Facebook).
En junio de 2017 la directora de políticas públicas Jordana Cutler aclaró que la plataforma solo suprime las publicaciones que niegan el Holocausto en los países en los que está prohibido por ley.
Los equipos de moderación son descritos como una caja negra diseñada para impedir cualquier progreso serio en la reducción de los mensajes racistas.
En agosto de 2017 un abogado británico es condenado al pago de 25.000 libras por publicaciones antisemitas repetidas en Facebook.
Expresaba deseo de violencia letal contra sionistas y manifestaba odio contra sus simpatizantes.
Un usuario informó a la CAA, la cual trasladó la queja al Tribunal Disciplinario de la Solicitors Regulation Authority.
El Tribunal impuso al acusado los costes de la solicitud y de su investigación, y ordenó su suspensión temporal en la práctica de la abogacía.
Datos obtenidos por Cambridge Analytica:
En 2018 se hizo público que la consultora Cambridge Analytica recopiló irregularmente información personal de 50 millones de estadounidenses. La consultora obtuvo y manipuló información (2014) de forma irregular a través de su matriz británica.
Con el tratamiento de esta información se dio servicio en 2016 a la campaña electoral de Trump.
Facebook suspendió la cuenta de la consultora tras hacerse pública la información (marzo 2018).
Al mismo tiempo suspendió la cuenta del programador Aleksander Kogan, desarrollador de una aplicación gratuita que recopilaba información personal de una gran cantidad de usuarios.
La consultora británica abrió una oficina en EE.UU. con financiación del millonario Robert Mercer, cercano a Steve Bannon en sus posiciones de ultraderecha. El CEO Alexander Nix aparece en una grabación pública explicando la forma de diseminar información falsa sobre políticos. Christopher Wylie, co-fundador de la empresa y desarrollador del programa para registrar perfiles políticos a gran escala hizo declaraciones sobre el interés de grandes empresas de Rusia en el programa. El interés se circunscribía a asuntos relacionados con las preferencias políticas de los usuarios. Cambridge Analytica obtuvo los datos de millones de usuarios del profesor universitario británico Kogan, que desarrolló trabajos académicos con financiación proviniente de Rusia.
Una empresa como Facebook que tiene como modelo de negocio vender información sobre usuarios lógicamente llevó al mínimo de detalles sus explicaciones sobre el incidente.
Difusión de mensajes negacionistas:
En julio de 2018, en una entrevista con el sitio web tecnológico Recode Zuckerberg dijo que aunque Facebook esté enfocado en frenar la difusión de noticias falsas, no filtrará los mensajes solo por el hecho de que sean incorrectos, incluidos los negacionistas. "Soy judío, y hay personas que niegan que haya ocurrido el Holocausto. Lo encuentro profundamente ofensivo. Pero, al fin de cuentas, no creo que nuestra plataforma deba eliminar esas publicaciones porque pienso que hay cosas que las personas creen equivocadamente. No pienso que lo hagan intencionalmente".
"Por supuesto, si una publicación cruza la línea de promover la violencia o el odio contra algún grupo en particular, sería eliminada" (Aclaración posterior).
En EE.UU. el revisionismo y el negacionismo no están prohibidos por ley, y la jurisprudencia tiende a ponerlos bajo la protección de la primera enmienda, que garantiza la libertad de expresión.
Se difunden artículos, imágenes o videos que, sin contener un llamamiento directo al odio, pueden percibirse como alentadores de actitudes y acciones violentas.
● La negación del Holocausto es una estrategia de larga data, deliberada y obstinada de los antisemitas que es indudablemente odiosa, peligrosa y una amenaza para los judíos. Facebook tiene la obligación moral y ética de no permitir su propagación. (Jonathan Greenblatt, director de la Anti-Defamation League)
● El Holocausto nazi es la atrocidad más documentada de la historia y permitir que se publiquen las falsedades del negacionismo del Holocausto en Facebook no se puede justificar en nombre del 'intercambio libre de ideas' cuando la propia idea está basada en una mentira. (Abraham Cooper [Simon Wiesenthal Center], julio 2018)
. No es el factor principal: la desigualdad, las burbujas financieras, la desafección con el sistema de partidos son mucho más importantes. Las redes son uno más.
A lo largo de 2018 la campaña para la reelección de Trump invertía un millón de dólares al mes para conseguir información sobre simpatizantes y potenciales votantes, con Facebook y otras redes como principales fuentes. Entre otros objetivos se buscaba fomentar la contribución de los simpatizantes en la promoción de Trump en las redes.
● [Las redes sociales constituyen solo uno de los factores que causan la fragmentación de la sociedad].
En esta era de abundancia comunicativa, hacer las cosas en privado es mucho más difícil, y eso es bueno y es malo a la vez: también se está poniendo en riesgo la privacidad y facilitan la difusión de las noticias falsas. La multiplicación del conocimiento y la distribución masiva de información llevan a la ciudadanía a pensar que el mundo es complejo y a no aceptar la mentira y la corrupción, pero las redes sociales también se están utilizando para hacer justamente lo contrario: prolifera la información sin contrastar, la utilización comercial del sensacionalismo o la bazofia informativa. (John Keane, 2019)
|
Durante una conferencia organizada en Nueva York (2019) por la organización de lucha contra el antisemitismo ADL, afirmó Sacha Baron Cohen: A partir de esta lógica retorcida, si Facebook hubiera existido en la década de 1930, habría dejado que Hitler publicara anuncios de 30 segundos sobre su ’solución al problema judío'.
Un portavoz de Facebook aseguró en una declaración que el actor había tergiversado sus políticas.
El discurso de odio en realidad está prohibido en nuestra plataforma. Prohibimos a las personas que abogan por la violencia y eliminamos a cualquiera que la alabe o la apoye.
Se obvia hacer mención a la presencia constante de una enorme cantidad de expresiones de rechazo y desprecio en función de raza, confesión u origen nacional.
[Esta afirmación de Facebook no me parece una exageración sino una completa mentira].
En junio de 2020 la NAACP calificó a Zuckerberg como complaciente con la promoción de información falsa.
Un grupo de defensores de los derechos civiles, la NAACP y la Anti-Defamation League creó la plataforma Stop Hate for Profit y llamó a los anunciantes a boicotear Facebook durante el mes de julio.
Responsabilizaron a Facebook de servir de plataforma para invitaciones a responder violentamente contra las marchas de protestas.
Fuentes de noticias claramente extremistas no son debidamente filtradas.
Especialmente los grupos de nacionalistas blancos vieron su presencia amplificada al permitirse vínculos de conocidas fuentes suministradoras habituales del discurso de odio.
Las acciones de Facebook acumularon una caída de más del 10% en una semana, provocando una pérdida de 56.000 millones de dólares en la capitalización bursátil.
Joe Scarborough dio un duro discurso en su programa de la MSNBC sobre la reacción de la COO Sheryl Sandberg ante los actos llevados a cabo por países extranjeros para interferir en las elecciones de 2016.
Zuckerberg anunció que pondría en marcha nuevas políticas de control de contenido como no permitir la difusión de mensajes que aseguren que las personas de una raza, nacionalidad género u orientación sexual son una amenaza para la seguridad o la salud de otra persona. Aquellos usuarios que compartan ese contenido recibirán un aviso antes de la publicación en el que se le informa de que van a compartir un contenido que viola las políticas de la compañía (julio).
La Asociación Alemana de Anunciantes hace pública una encuesta según la cual el 83% de las empresas que contratan publicidad no está satisfecho con las políticas que sigue la red social respecto a los discursos de odio. Un tercio de los socios ha detenido sus campañas en la plataforma (julio).
El 5 de agosto Facebook retira (por primera vez) un vídeo de la cuenta oficial de Trump al que aplica el procedimiento usado de forma general para combatir la información falsa. Alegó que el vídeo violaba las políticas sobre desinformación de la red en referencia al coronavirus [sobre inmunidad de los niños].
Ese mismo día unos veinte fiscales generales de diferentes estados reclamaron a Facebook que tome medidas más activas contra el contenido que constituye acoso, discriminación y racismo.
Detrás de la solicitud se puede interpretar que aumenta el riesgo de acciones legales futuras contra la plataforma.
Durante la segunda mitad del agitado 2020 se repitieron numerosas intervenciones sobre conspiraciones con la Covid-19 como transfondo.
Es el caso de Kevin Grisham, director del Center for the Study of Hate and Extremism, de la California State University, que vigila los movimientos globales que fomentan el odio y la polarización. También Imran Ahmed, director del británico Center for Countering Digital Hate (CCDH), al servicio de las grandes plataformas como Facebook, Youtube o Twitter para detectar y aconsejar la expulsión de las mismas de aquellos grupos o personas que falsean datos y fomentan odio en las redes.
También el Institute of Data, Democracy and Politics de la George Washington University.
Relacionadas con QAnon solo en Alemania había 200.000 cuentas de seguidores en distintas plataformas (octubre).
2021:
En enero de 2021 la vicepresidenta de Políticas de Contenido, Monica Bickert publica un artículo en el que describe unos casos de contenidos censurados por el consejo asesor de contenido de Facebook. Este organismo, formado actualmente por 20 personalidades, recibe peticiones para la revisión pormenorizada de casos desde octubre de 2020.
Añade una instancia o herramienta para acometer la difícil tarea de fijar límites razonables.
Uno de ellos suprimió un post con una cita de Goebbels que no iba acompañada de contexto, con lo que se presuponía algún tipo de apoyo.
También se comparaba la falta de reacción entre musulmanes por el trato a la minoría uigur en China y en cambio la sobrerreacción por las caricaturas de Mahoma en la revista Charlie Hebdo.
Cuando el Consejo haya tomado una decisión sobre casos delicados, Facebook deberá implementarla y responder públicamente a cualquier recomendación sobre las políticas que emita el Consejo.
Sumarse a la censura de Trump fue una decisión de peso y que traería consecuencias adversas de cierta relevancia.
Este tipo de solución adoptada sirve de pantalla para descargar a la dirección de Facebook de responsabilidades y disminuye su protagonismo y exposición en las polémicas.
Podría adaptarse a otras plataformas y avanzar hacia una especie de tribunal del discurso en internet.
Twitter aborda el problema con Birdwatch, herramienta que cede control sobre qué se dice en su red a un grupo de usuarios, un caso similar a los usos de Wikipedia.
● Los tuits presidenciales se asocian irrevocablemente a Trump y, por tanto, a mentiras y propaganda chabacanas. [...] Quienes hacen funcionar y se lucran con Twitter merecen un castigo por haber sido consentidores de Trump durante tanto tiempo (Robert Kuttner, 2021).
Subcomisión de Comercio (marzo):
El 25 de marzo Zuckerberg es convocado virtualmente por la Subcomisión de Energía y Comercio del Congreso.
Los grupos supremacistas que asaltaron el Capitolio se organizaron a través de Facebook.
Declara: Nosotros cumplimos con nuestro trabajo para garantizar la integridad de las elecciones. Y luego, el 6 de enero, el presidente Trump dio un discurso en el que rechazó los resultados y pidió a la gente que luchase.
Negó la responsabilidad en el ataque al Capitolio.
Fue acusado por los demócratas de permitir la difusión de conspiraciones, la organización de grupos supremacistas, la supresión de voto para las minorías raciales y la propagación de falsedades sobre fraude electoral.
La junta de supervisión en la que Facebook delega está pendiente de dictaminar si la suspensión de la cuenta de Trump debe ser permanente.
Diversas investigaciones académicas y periodísticas afirman que los algoritmos de recomendación de Youtube y Facebook amplifican los mensajes extremistas así como la desinformación sobre el origen del coronavirus y el impacto de sus vacunas.
A autores que propagan de forma sistemática la desinformación se les permite que sigan monetizando por largo tiempo lo que publican.
Suspensión de cuentas de Trump:
El 7 de enero, un día después del asalto al Capitolio, las plataformas deciden la suspensión de las cuentas de Trump. Twitter había tomado esa medida con mayor celeridad.
Zuckerberg declaró Creemos que los riesgos de permitir que el presidente continúe usando nuestro servicio durante este período son simplemente demasiado grandes.
Según Evelyn Douek, investigadora del discurso en línea y moderación de plataformas en la Facultad de Derecho de Harvard, la decisión de excluir a Trump, si se hace permanente, podría tener vastas implicaciones.
En mayo se hace pública la decisión de la Junta sobre si se debe seguir impidiendo a Trump el uso de la plataforma.
Trump tiene casi 60 millones de seguidores en Facebook e Instagram, y alcanzó los 80 millones de seguidores en Twitter.
El Comité decide que se debe mantener la suspensión durante al menos seis meses más.
Al mantener una narrativa sin fundamento sobre el fraude electoral con repetidas llamadas a la acción, Trump creó un entorno en el que era posible un serio riesgo de violencia.
[...] No es aceptable que [Facebook] mantenga a un usuario fuera de la plataforma de forma indefinida, sin criterios sobre cómo o cuándo se le volverá a rehabilitar.
Facebook debe revisar su decisión explicando qué criterios aplica a los usuarios altamente influyentes para suspender sus cuentas.
Debería emitir un fallo sobre el expresidente en el plazo de seis meses.
Trump calificó la decisión de "una vergüenza" y declaró que la libertad de expresión le ha sido arrebatada al presidente de Estados Unidos porque la izquierda radical lunática tiene miedo de la verdad.
El uso de las plataformas le sería de gran ayuda para llevar a cabo una campaña de recogida de fondos, para apoyar a los candidatos republicanos que desafiarán en las primarias a los legisladores de ese partido que votaron a favor de su impeachment.
Trump además acusó a las redes de destrozar el sistema electoral.
La difusión de la infundada existencia de un significativo fraude electoral fue aprovechada por numerosos gobernantes republicanos para tomar medidas que restringen el derecho al voto.
A principios de agosto Facebook bloquea el acceso a un grupo de investigadores de la Universidad de Nueva York que estudiaba el origen y efecto de los anuncios políticos.
Forman parte del proyecto Observatorio de Anuncios que estudia el uso de la plataforma que lleva a cabo un grupo de usuarios que voluntariamente participan en el proyecto.
Según Mike Clark, responsable de gestión de productos, la forma de hacer el estudio iba en contra de los términos y condiciones de la plataforma. [...] La extensión del navegador fue programada para evadir nuestros sistemas de detección y conseguir datos personales como nombres de usuario, anuncios vistos y enlaces a perfiles de usuario.
Todo el código de las herramientas usadas por los investigadores era público y la fundación Mozilla considera que en ningún momento se ha accedido a ningún dato que los participantes no ofrecieran de forma voluntaria. Según Marshall Erwin, responsable de seguridad de la fundación Mozilla, la causa esgrimida por el portavoz de Facebook es una afirmación que no se sostiene.
Sobre la falta de un bloqueo efectivo de la información falsa sobre covid-19 Biden respondió a un periodista con la rotunda acusación they are killing people.
A finales de agosto Facebook hace públicos sus informes de transparencia sobre el primer y segundo trimestres de 2021.
El informe del trimestre anterior no habia sido publicado pero The New York Times lo obtuvo y señaló que la publicación con enlace más vista fue una noticia del Chicago Tribune que relacionaba la muerte de un médico de Florida con la vacuna contra el covid-19.
Cuando la autopsia demostró que la muerte no fue causada por la vacuna el diario procedió a actualizar (o rectificar) la noticia.
The New York Times publicó una noticia similar y no la actualizó con posterioridad, hecho que Andy Stone, portavoz de Facebook, aprovechó para incidir en lo difícil que es decidir qué es desinformación. Añadió que el informe que faltaba no fue publicado porque había puntos importantes en el sistema que queríamos arreglar.
2022:
En marzo de 2022 Facebook se mete en un nuevo lío en el marco de la invasión de Ucrania, que suscita que usuarios publiquen llamamientos a la violencia sobre soldados rusos y respondan mostrando alegría por la [hipotética] muerte de figuras políticas y combatientes rusos.
Andy Stone, portavoz de Meta, aclara cambios temporales controvertidos en la política sobre referencias violentas.
Se permiten expresiones del estilo muerte a los invasores rusos pero no llamadas creíbles a la violencia contra los civiles rusos.
Expresiones normalmente consideradas discurso de odio, dejan de serlo si se aplican a soldados rusos, EXCEPTO prisioneros de guerra, o si se refieren a rusos donde sea claro que el contexto es la invasión rusa de Ucrania (por ejemplo, el contenido menciona la invasión, la autodefensa, etc.) [...] Hacemos esto porque hemos observado que, en este contexto específico, los 'soldados rusos' se utilizan como representantes del ejército ruso.
La embajada rusa en Washington declaró que la política agresiva y criminal de Meta que conduce a la incitación al odio y la hostilidad hacia los rusos es escandalosa [...] Exigimos que las autoridades estadounidenses detengan las actividades extremistas de Meta y tomen medidas para llevar a los perpetradores ante la justicia.
2023:
La moderación de Reddit se basa en moderadores voluntarios no remunerados que emplean unas aplicaciones en línea para detectar contenido prohibido. No se trata de una vigilancia mediante un sistema centralizado basado en algoritmos. El método no es perfecto y se escapa una cierta cantidad de contenidos rechazables no detectados inmediatamente.
Los moderadores tienen acceso a herramientas algorítmicas que se pueden personalizar para hacer que la moderación de contenido del día a día sea menos onerosa y más efectiva.
Otros usuarios más ocasionales colaboran en la labor de recomendación de contenidos votando a favor y en contra de las publicaciones para ayudar a que aparezca el contenido más atractivo en sus comunidades. Este método colectivo y útil está amparado por una cierta inmunidad que permite la Sección 230 de la Ley de Decencia en las Comunicaciones [EE.UU.]. En el pasado la Sección 230 ha permitido a Reddit esquivar demandas frívolas que se han dirigido contra los usuarios y la compañía evitando litigios de forma rápida y económica.
Según un usuario de Reddit la Sección 230 hace posible que plataformas como Reddit mantengan modelos de moderación de contenido donde la tecnología sirve a las personas, en lugar de dominarnos o reemplazarnos.
Según otro usuario las herramientas algorítmicas que proporciona Reddit son indispensables cuando se analizan las publicaciones de decenas de millones de usuarios individuales. Quitar esa herramienta sería equivalente a eliminar un filtro de spam de una bandeja de entrada, lo que dificulta el mantenimiento de las comunidades sub-Reddit. Cambios indeseables en la Sección 230 podrían poner en riesgo a comunidades enteras al dejar a los usuarios a la caza y picoteo de comunicaciones reales en medio de todas las publicaciones falsificadas de actores maliciosos que participan en envíos de correos de odio, spam publicitario o intentos de phishing para obtener credenciales financieras.
La Corte no debe atenuar la Sección 230 de una manera que exponga a [los moderadores voluntarios] en ese modelo a un riesgo personal insostenible.
La familia de una víctima del ataque de ISIS en París (2015) demandó a Google por la facilidad con la que YouTube permite ayudar e incentivar a terroristas. Google declaró que una decisión que socave la Sección 230 haría que los sitios web eliminaran material potencialmente controvertido o cerraran los ojos ante contenido objetable para evitar su conocimiento. Te quedarías con una elección forzada entre sitios principales excesivamente tratados con censura previa o sitios marginales inundados con contenido objetable.
Según el abogado de la familia la denuncia alega que los acusados estaban recomendando videos de reclutamiento de terroristas de ISIS, lo que bajo ciertas circunstancias podría dar lugar a responsabilidad en virtud de la Ley Antiterrorista [...] la cuestión de esa responsabilidad es el tema de otro caso SCOTUS que involucra a Twitter, Meta y Google (enero).
El 01/07/2023 Camboya expulsa al representante de Facebook en el país. El 29/06/2023 el Consejo Supervisor de Meta propuso suspender por seis meses la cuenta del primer ministro, Hun Sen, por un vídeo con amenazas a la oposición. Los motivos de la expulsión aducidos por el Ministerio de Telecomunicaciones fueron interferencias en los asuntos políticos del país, la recolección de datos, la desinformación y la falta de transparencia. Hun Sen había anunciado que prohibiría Facebook en Camboya. En el vídeo, publicado en enero, el mandatario, en el poder desde 1985, instaba a sus oponentes políticos a elegir entre el "sistema legal" y el "bate", y amenazaba con enviar a sus seguidores a dar una paliza a sus críticos.
En marzo de 2024 la Corte Suprema de EE.UU. debatía sobre los límites que deben imponerse al Ejecutivo sobre sus comunicaciones directas con los gestores de las redes sociales para persuadirlos de que deberían eliminar expresiones relacionadas con el odio, terrorismo o conspiraciones sobre las vacunas.
No se puso en duda que el FBI debe tener acceso directo para señalar actores y conductas peligrosos para la seguridad nacional.
site:itongadol.com
|