Skip Navigation
Análisis

¿Podrá Meta asumir el reto, ahora que volvió a incorporar a Trump a Facebook e Instagram?

Las nuevas políticas de moderación de contenidos les dan a la compañía un abundante margen de discreción. La eficacia de sus normas dependerá de la forma en que se hagan cumplir.

Última Actualización: Marzo 20, 2023
Publicado: Marzo 17, 2023

Esta columna se publicó originalmente en Just Security

A comienzos de este año, Meta reactivó las cuentas del expresidente Donald Trump en Facebook e Instagram, después de dos años de suspensión por haber elogiado a algunas personas que ocasionaron los disturbios en el Capitolio de los Estados Unidos el 6 de enero de 2021. Meta afirmó que el riesgo que presenta Trump para la seguridad pública había “disminuido lo suficiente” como para permitirle volver a sus plataformas y que se habían incorporado nuevas protecciones para impedir posibles infracciones en el futuro.

Al igual que en Twitter, donde fue reintegrado en noviembre de 2022, Trump aún no ha publicado ni en Facebook ni en Instagram. Estas plataformas fueron fundamentales para sus campañas políticas anteriores y, a medida que se acerca la época electoral, puede resultar difícil resistirse al encanto de estas plataformas. Twitter, ahora liderado por Elon Musk, ya no implementa la fuerte moderación de contenidos que antes utilizaba. Por el contrario, Facebook, bajo la presión de su Junta Supervisora, ha instituido una serie de salvaguardas diseñadas para impedir que se vuelvan a emplear las mismas tácticas de Trump de 2020 y aumentar la transparencia de sus procesos de moderación de contenidos. ¿Qué ha cambiado desde entonces y cuánto realmente va a ayudar?

Proliferación de políticas

Facebook se basa en varias políticas superpuestas para tomar decisiones que tienen que ver con la moderación de contenidos. Algunas (como sus normas comunitarias) han sido divulgadas al público desde hace mucho tiempo, otras han salido a la luz apenas hace poco (como su sistema de comprobación), e incluso otras han sufrido cambios muy significativos (como las de interés periodístico). También ha implementado nuevas políticas en los últimos dos años. Debido a la densidad de las políticas viejas, nuevas y modificadas que se encuentran dispersas en muchas publicaciones de distintos blogs, a continuación, resumimos las principales políticas que se aplican a la reincorporación de Trump.

Políticas predominantes

  • Las normas comunitarias, que se aplican a todos los usuarios, prohíben la violencia y la incitación a la violencia, todo lenguaje que incite al odio, el bullying y el acoso. A pesar del sinfín de publicaciones de Trump que parecen infringir las normas comunitarias de Facebook (por ejemplo, “cuando comienza el saqueo, comienza el tiroteo”), la compañía sigue afirmando que el expresidente infringió las normas solo una vez, cuando se burló de un hombre en uno de sus actos políticos por estar excedido de peso.
  • La política de Facebook sobre personas e instituciones peligrosas prohíbe la “exaltación” o el “apoyo” a personas, organizaciones o eventos que la compañía considere que “infringen” las normas. Este fue el principal fundamento detrás de la decisión de la compañía de eliminar a Trump de sus plataformas, decisión que fue respaldada por la Junta bajo la consideración de que el ataque contra el Capitolio fue un “hecho violento”. La política entera ha sido objeto de fuertes críticas, incluso de parte de la Junta Supervisora, debido a la ambigüedad de algunos términos como “exaltación” y “apoyo” y la falta de claridad sobre cómo se designan a las personas u organizaciones como “peligrosas”. 
  • La decisión de la Junta de suspender a Trump sacó a la luz el sistema de “comprobación” que tiene Facebook para trasladar las publicaciones de usuarios de alto impacto de su sistema habitual de moderación de contenidos y derivarlas a un equipo de personal experimentado dentro de la compañía. Si bien puede tener sentido contar con un sistema especial como este, puede dar como resultado un tratamiento obviamente deferente a favor de aquellos usuarios que impulsan una mayor participación en la plataforma y crear grandes demoras en la eliminación de publicaciones (en promedio, se tarda más de cinco días). En respuesta a las  recomendaciones de la Junta Supervisora, Meta se comprometió hace poco a tomar medidas de inmediato cuando se trata de contenidos que impliquen “la posibilidad de infringir gravemente” las normas y a reducir los atrasos del programa, pero rechazó varias otras recomendaciones importantes.

Políticas nuevas y modificadas

  • La excepción de Facebook sobre contenidos de interés periodístico antes suponía que cualquier publicación de una figura pública era necesariamente de interés público. Ahora se procura encontrar un equilibrio y determinar si el interés público del contenido supera el riesgo de daño que causaría dejarlo, un método que la Junta Supervisora criticó hace poco como”. y que deja un importante margen de discreción”.
  • En junio de 2021, Meta publicó una política sobre la restricción de las cuentas de figuras públicas durante disturbios civiles, donde se reconocía que, debido a la influencia que pueden ejercer estas personas, las restricciones habituales pueden no ser suficientes. Por eso, Meta especificó que, cuando una figura pública infringe las políticas “de una manera que incite o apoye hechos de violencia o disturbios civiles en curso”, la empresa puede restringir el acceso a sus cuentas por hasta dos años. 
  • La política de 2021 prometía que Meta iba a realizar una evaluación de riesgos para la seguridad pública con especialistas (que analizarían factores como las instancias de violencia, las restricciones sobre cualquier reunión pacífica y otros indicadores de disturbios civiles o generales) para decidir si se levanta o se prolonga la restricción. En agosto de 2022, la compañía anunció un nuevo protocolo en casos de crisis para evaluar los “riesgos de daño inminente tanto dentro como fuera de nuestra plataforma”, que se aplicó para la reincorporación de Trump a Facebook. Si bien la política no es de dominio público y no queda claro cuáles son los factores que considera Meta, es posible que se base en los mismos tipos de factores que se enumeran en su política sobre disturbios civiles. En el caso de Trump, fueron, entre otros, “como se llevaron a cabo las elecciones legislativas de 2022 en los Estados Unidos” y las “evaluaciones de expertos sobre la situación actual en torno a la seguridad” en el país. 
  • Por último, según otra política nueva cuando se reincorpora a una figura pública a la plataforma, Meta ahora puede imponer sanciones por publicar contenido que no infringe sus normas comunitarias, “pero que contribuye al mismo tipo de riesgo que produjo la suspensión inicial de esa figura pública”. Estas sanciones son muy parecidas a las que se podrían aplicar en el caso de infracciones a las “políticas más graves”, contempladas en sus normas comunitarias.

Se pueden sacar tres conclusiones principales de esta red de políticas superpuestas. En primer lugar, el escrutinio que ejerce la Junta Supervisora y la gran atención pública que reciben las compañías de redes sociales han obligado a Meta a aumentar considerablemente la transparencia de sus procesos. Su sistema de comprobación, por ejemplo, no era de conocimiento público hasta que se planteó en la evaluación de casos de la Junta. 

En segundo lugar, muchos de los cambios de Meta son de procedimiento, aparentemente diseñados para abordar el principio de legalidad de la normativa internacional sobre derechos humanos que utiliza la Junta para evaluar las decisiones de moderación de contenidos de Facebook. Sin lugar a duda, la Junta siempre ha obligado a la compañía —y con razón— a implementar un método basado en las normas (por ejemplo, cuando criticó duramente a Facebook por imponerle a Trump una suspensión indefinida cuando sus reglas no tenían ninguna disposición que estableciera este tipo de sanción). Las nuevas políticas de Meta también señalan los principios de necesidad y proporción de la normativa, ya que determinan una escala gradual de sanciones.

En tercer lugar, a pesar de todas las nuevas políticas y de los esfuerzos que realiza la Junta Supervisora por dictar reglas más claras y accesibles, Meta tiene la misma discreción de siempre para decidir cómo responder y, en algunos casos, se ha concedido la libertad de actuar aun cuando no se ha infringido ninguna regla sustantiva.

Actuales políticas de moderación de contenidos 

Imaginemos por un segundo que Biden y Trump se presentan como candidatos para su reelección en 2024. Como lo hizo en 2020 —y lo sigue haciendo en la plataforma social Truth—, supongamos que Trump comparte una publicación que genera dudas sobre la transparencia de las próximas elecciones. Si bien no infringe las normas comunitarias de Meta, según sus nuevas protecciones para figuras públicas que se reincorporan a la plataforma después de una suspensión, la compañía podría restringir el alcance de la publicación de Trump porque se relaciona con los motivos de su suspensión inicial. Lo mismo ocurriría si promoviera contenido sobre QAnon. Si Trump no se diera por enterado y continuara con este tipo de publicaciones, Meta podría aumentar la sanción y restringir el acceso a sus herramientas de publicidad e incluso inhabilitar la cuenta. Todas estas decisiones quedan a discreción de la compañía y dependen, en última instancia, de la forma en que Meta evalúe los riesgos supuestos por Trump. El hecho de que estas publicaciones no tienen que ceñirse a las normas comunitarias de Facebook crea un nuevo nivel de incertidumbre sobre los fundamentos en los que se basan las decisiones de Meta, aunque el riesgo de posibles abusos está un poco aminorado por la relación obligada que se establece con transgresiones pasadas. Los antecedentes de Trump de haber incitado a la violencia política pueden hacer que Meta termine respondiendo con más severidad y rapidez que lo hizo en la época de elecciones de 2020, por lo menos si es que Trump sigue empleando la misma narrativa.

Si Trump dejara de usar la narrativa sobre elecciones fraudulentas/QAnon, pero infringiera las políticas de la compañía de otras maneras que “inciten o apoyen hechos de violencia o disturbios civiles en curso”, se aplicarían las políticas de Meta para figuras públicas en casos de disturbios civiles. Para determinar si se impondrán sanciones según esta normativa, la empresa evaluaría (1) la gravedad de la infracción y los antecedentes de infracciones de la persona; (2) su “posible influencia sobre las personas que participan en los hechos de violencia y su relación con ellas”; y (3) “la gravedad de la violencia y cualquier daño físico relacionado”.

Sin embargo, no queda claro cómo se evaluará el contenido, en especial en lo que se refiere a la política de comprobación de Meta. La operación de comprobación de las publicaciones de Trump puede terminar en un fracaso patente, aunque el nuevo compromiso de Meta por tomar medidas de inmediato contra “infracciones graves” puede solucionar algunos problemas. Claro que todo esto depende de que Meta decida que una situación determinada se considera un “disturbio civil” y no entre en su excepción de “contenido de interés periodístico”. 

Vale la pena considerar otras aplicaciones de este modelo de “disturbios civiles”. Facebook ha sido objeto de fuertes críticas por no haber tomado medidas en contra de altos militares en Myanmar que divulgaron contenido que incitaba al odio e instigaron a la violencia contra el pueblo rohingya. Las normas sobre “disturbios civiles” podrían ser muy útiles en este tipo de situaciones, pero también necesitan estar acompañadas de la asignación de recursos suficientes para brindarles a las personas encargadas de tomar las decisiones en Meta el conocimiento necesario sobre el contexto y el idioma en cuestión, una recomendación que hace poco Meta se comprometió a implementar en su política de comprobación.

¿Y qué pasa con el contexto en torno a las protestas por la justicia racial que le siguieron al asesinato de George Floyd en nuestro país, que en algunos casos causaron daños materiales? La administración Trump los pintó como una amenaza a la seguridad nacional que exigía el despliegue de fuerzas de seguridad y la activación de medidas antiterroristas. En este caso, ¿se creería Meta con el derecho a eliminar las cuentas de las personas que lideraron las protestas, bajo la suposición de que estaban celebrando un “disturbio civil”? Cabe considerar esta posibilidad, dado que muchos grupos de defensa de derechos civiles siempre se han quejado de las asimetrías con las que la compañía hace cumplir sus normas en desventaja para las comunidades minoritarias.

En última instancia, a Meta, al igual que a otras plataformas de redes sociales, le ha costado mucho articular políticas claras y accesibles sobre la moderación de contenidos que sean lo suficientemente flexibles como para responder a cualquier amenaza de rápido crecimiento. Sus políticas nuevas y modificadas dan a la compañía un abundante margen de maniobra a la hora de decidir. La eficacia de sus normas dependerá de la forma en que se hagan cumplir. Y en este sentido, Meta deja mucho que desear.

Traducción de Ana Lis Salotti.