2022-04-29
Tanto periodistas y activistas usan las redes sociales para difundir contenido y como medio de reunión y comunicación. En estos mismos espacios digitales también se llevan a cabo casos de violencia y ataques digitales relacionados a su labor.
Entender las normas que rigen lo que compartimos y cómo nos comportamos en las redes sociales pareciera sencillo, pero no lo es del todo. En esta guía introductoria buscamos comprender conceptos y aspectos claves para que periodistas y activistas puedan tener claridad de cuáles son las conductas permitidas, cuáles no y cómo usar las herramientas que brindan las plataformas ante ataques digitales.
Ver también: Normas de comunidad y libertad de expresión. Charla con especialistas.
Todas las redes sociales tienen las llamadas reglas, políticas o normas de comunidad. Básicamente definen lo que se puede o no hacer y publicar en ellas.
En otras plataformas o espacios digitales también existen, pero en este post nos vamos a centrar en las normas y reglas de redes sociales como Facebook, Instagram y Twitter.
Cada plataforma las nombra o titula distinto. Por ejemplo en Facebook e Instagram se conocen como “normas de comunidad”; mientras que Twitter las titula “Reglas”.
Si queremos interactuar con otras personas y/o grupos y acercarles contenidos, nuestro reto es conocer las normas de cada espacio o plataforma para reconocer interacciones no válidas o aceptadas. Es importante analizarlas y cuestionarlas, ya que las normas de comunidad tienen un impacto directo en la relación con nuestras audiencias y comunidades, las relaciones digitales que tenemos, la libertad de expresión en línea, las movilizaciones sociales, el debate público, el acceso y la libre circulación de la información.
Seguramente al abrir una cuenta en línea le diste aceptar a los términos de uso, esta especie de contrato incluye diversos aspectos: entre ellos, las normas de comunidad.
Tanto los términos y condiciones de servicio como las normas de comunidad son esenciales para conectarnos y comunicarnos, rigen nuestra conducta a través de estas plataformas.
Para llevar a cabo la acción de moderar contenidos, las plataformas se basan en las normas comunitarias. O dicho de otra forma: la moderación de contenidos es cómo se aplican las reglas a la interacción de cada persona usuaria y la difusión de contenidos.
Basada en las normas de comunidad o reglas de las plataformas, la moderación combina equipos humanos y tecnología, como herramientas de detección automática para identificar y tratar contenido problemático.
Ambos procesos e implicaciones son decisión de las empresas o plataformas. Por tanto no son iguales, y cada plataforma profundiza o detalla sus reglas según sus intereses, audiencia y el ambiente que quieren promover. Las plataformas consultan también con grupos de personas usuarias y siguen consejos de especialistas en campos como tecnología, seguridad pública y derechos humanos.
Podemos decir entonces que el rol de las plataformas respecto a los contenidos se parece más a un editor o a un árbitro que saca la tarjeta roja, amarilla o verde.
Sin embargo, como se repite seguido, todo depende del contexto. En algunos casos, las plataformas permiten contenido que, de otro modo, incumpliría las normas si es de interés periodístico y relevante para la sociedad.
En el sitio “Circuito” se identifican 3 etapas de la moderación de contenidos:
Twitter detalla en su política "integridad cívica"que no puedes utilizar los servicios de Twitter con el fin de manipular o interferir en elecciones u otros procesos cívicos. Esto incluye publicar o compartir contenido que pueda suprimir la participación o engañar a las personas sobre cuándo, dónde o cómo participar en un proceso cívico.
Más información: https://help.twitter.com/es/rules-and-policies/election-integrity-policy
Facebook define el lenguaje que incita al odio como un ataque directo a las personas, y no a los conceptos ni a las instituciones, en función de lo que denomina "características protegidas": raza, etnia, nacionalidad, discapacidad, religión, casta, orientación sexual, sexo, identidad de género y enfermedad grave. Más información https://transparency.fb.com/es-es/policies/community-standards/hate-speech/
En Twitter está prohibido la existencia de cuentas cuyo objetivo principal sea incitar la violencia contra otras personas, así como imágenes y nombres de usuario que incitan al odio. Más información https://help.twitter.com/es/rules-and-policies/hateful-conduct-policy
Basada en la política de "autenticidad de la identidad", Facebook pide usar en tu perfil tu nombre y que cada perfil de Facebook debe identificar a una persona real. Más información: https://transparency.fb.com/es-es/policies/community-standards/account-integrity-and-authentic-identity/
En cambio, Twitter no exige que sus usuarios se identifiquen con su nombre real. Esto permite que haya cuentas anónimas, seudónimos y parodias. También señala en la política de "identidades engañosas" que tu cuenta no debe participar en actividades de suplantación de identidad ni hacerse pasar por alguien que no existe para engañar a otros. https://help.twitter.com/es/rules-and-policies/twitter-impersonation-and-deceptive-identities-policy
Las plataformas prohíben enaltecer la violencia, esto incluye elogiar o celebrar actos violentos con declaraciones como "Me alegro de que esto haya sucedido", "Me gustaría que más personas hicieran cosas como esta”. Las plataformas también usan señales de advertencia o filtros al contenido especialmente gráfico o violento para que las personas sepan antes de hacer clic para verlo.
Más información en Facebook https://transparency.fb.com/es-es/policies/community-standards/violent-graphic-content/ y en Twitter: https://help.twitter.com/es/rules-and-policies/media-policy
“Los reportes masivos influyen para dar de baja o eliminar una cuenta.”
Según las plataformas, esto no influye a la hora de evaluar contenidos reportados. Tampoco el número de seguidores o si tienes una cuenta verificada. Esto tiene sentido, pensando en que los reportes masivos podrían ser usados de forma abusiva.
En un tema relacionado, en algunos casos si es recomendable que la persona o cuenta afectada reporte directamente. Por ejemplo, si están suplantando tu identidad es mejor que lo reportes tú.
“Todas las evaluaciones de Facebook y Twitter son hechas con Inteligencia Artificial.”
Como mencionamos arriba, en el proceso de moderación de contenidos hay revisión humana por parte de equipos y también se apoyan en herramientas automatizadas para detectar proactivamente contenido problemático.
“Solo puedo reportar contenido problemático si tengo una cuenta en la red social.”
Hay ataques digitales silenciosos que no tienen interacción directa contigo a través de mensajes o correos. Por ejemplo una suplantación de identidad; por esta razón puede que no los notes inmediatamente o alguien más te pueda alertar de que está sucediendo. En este caso también puedes reportar a través de formularios, por ejemplo este en Instagram.
Como acertadamente dice Marina Benitez, los canales de reporte deben ser la llave de oro y el recurso más cuidado por parte de las plataformas. Desde aquí gestionan las quejas de la comunidad y adaptan estas reglas al contexto e impacto que generan.
Por algo los canales de reporte deben ser la llave de oro y el recurso más cuidado por parte de las plataformas. Deben estar a la altura. Si no dan abasto, que equipen mejor: más personal, más atención, más capacitación. Les sobra presupuesto, ese no es el problema.
— Marina Benítez Demtschenko (@marbendem) January 26, 2022
Las herramientas que podemos utilizar son:
Como dice el sitio “La Intersección”, nuestras redes sociales no son el lugar para que nadie tire basura, por lo que tú puedes decidir los límites de tus interacciones digitales:reportar contenido abusivo y decidir con qué cuentas o contenido interactúas.
Algunos tips a tomar en cuenta:
Acá puedes consultar Herramientas de reporte para Instagram, Twitter y Facebook.
1) Dónde está el problema: en la interacción de la cuenta (contenido violatorio de las normas reiterado y explícito) y/o en el contenido específico (expresiones e imágenes). Ambas se pueden reportar.
2) Selecciona la categoría que corresponda para generar tu reporte.
3) Recaba información, aporta contexto y evidencia. Esta información también te puede ser útil para tu bitácora de ataques digitales.
Diferencia entre silenciar, bloquear y reportar en Twitter
Los equipos que moderan así como la tecnología para detectar contenido problemático pueden cometer errores. Si consideras que dieron de baja tu cuenta o contenido de forma errónea, apela la decisión de las plataformas para que puedan revisar nuevamente tu caso.
En Facebook, desde el buzón de ayuda y desde: https://www.facebook.com/help/2090856331203011?helpref=faq_content
En Twitter: https://help.twitter.com/forms/general?subtopic=suspended
Es importante señalar que tanto los procesos de reporte y de apelación generalmente se atienden de forma automatizada y aletargada, según describe el informe Remoción de contenidos de Art.19 En algunos casos, al lograr apelar con éxito y revertir la decisión de la plataforma digital, la restitución de los contenidos llega a resultar fuera de tiempo o de la coyuntura social.
Facebook tiene la sección: "estado de la cuenta", "buzón de ayuda" y "calidad de la cuenta". Desde ahí puedes consultar las normas comunitarias y dar seguimiento a tus reportes e infracciones.
Lo encuentras desde tu perfil en Configuración y privacidad > Configuración > Buzón de ayuda
Y en Páginas de Facebook, en el menú izquierdo.
Letra Chica: proyecto de Linterna Verde y el CELE donde estudian a detalle las normas, cómo se aplican y cómo cambian a lo largo del tiempo.
Circuito es una iniciativa de Linterna Verde que ayuda a navegar las normas de las redes sociales que impactan su contenido.
Informe: Remoción de contenidos de Artículo 19 y recomendaciones a las plataformas sobre moderación.
..
Comentarios