El 6 de enero seguidores del presidente saliente de Estados Unidos, Donald Trump, irrumpieron de forma violenta en el Capitolio. Desde su cuenta en redes, como siempre, Trump se expresó sobre los hechos y si bien pidió que volvieran a sus casas, insistió con que las elecciones que lo dieron como perdedor fueron ilegítimas. A partir de entonces, las redes Twitter, Facebook, Instagram, Youtube y Snapchat fueron tomando definiciones que coincidieron con la suspensión de las cuentas del republicano, acusándolo de incitar a la violencia. Así, las mismas empresas que permitieron que sus plataformas se convirtieran en grandes reservas de discursos de odio y viralización de contenidos violentos silenciaron a uno de sus usuarios más activos.
El abogado y doctor en ciencias de la comunicación Damián Loreti explicó a El Ciudadano que la suspensión de cuentas y eliminación de contenidos es una práctica que llevan adelante estas empresas desde hace tiempo, y recordó que una de las discusiones que se venían dando en torno de esta práctica es si editan contenidos o si son meros transmisores: «Ahora quedó de modo más evidente que editan. Las plataformas digitales son oradoras y plaza pública al mismo tiempo. No te pueden echar».
Loreti no recuerda un precedente de este tipo en términos de silenciar a un presidente de una nación elegido mediante el voto. «Lo que ocurrió es algo que ya venía pasando con muchas cuentas y personas, que se basa en una regla de funcionamiento de las empresas como si fuera todo basado en reglas de Derecho Civil, como si fuera acuerdo entre usuario y empresas, lo que no quiere decir que esté bien. Todas las empresas de este tipo, grandes y monopólicas, se han transformado en una plaza pública y las reglas con las que operan desconocen situaciones de derechos humanos fundamentales , no cumplen con el derecho a la libertad de expresión».
Así contextualizó cómo se dio este hecho: «Históricamente la jurisprudencia de Estados Unidos no reconoce obligaciones para con la libertad de expresión, para cumplir la primera enmienda, a los actores no estatales. Y sí se las reconocen y se las imponen a los actores estatales», explica, con base en la Constitución estadounidense.
«Hay una falta de transparencia de reglas y de cómo se cargan los algoritmos para eliminar contenidos. Por ejemplo, en los primeros tiempos de la pandemia algunas plataformas reconocieron que habían levantado un montón de contenido como si fuera fake news y fue un error», expresó y agregó: «Funcionan como un Estado paralelo, pero no tienen división de poderes».
Loreti recordó un ejemplo cercano del avance de estas plataformas en censurar contenidos. En abril de 2015 Facebook removió una imagen de personas de pueblos originarios desnudos que el Ministerio de Cultura de Brasil utilizó para invitar a una muestra fotográfica. Ante esta situación el secretario ejecutivo del Ministerio de este país, João Brant, denunció a Facebook ante la Comisión Interamericana de Derechos Humanos (Cidh) por censura privada de contenidos.
Por entonces Brant dijo: «Las plataformas digitales operan como espacios públicos de circulación de información. Tienen una fuerte tendencia a la concentración y su influencia es decisiva sobre la producción y distribución de cultura a escala global. Por ende debe ser considerado un tema de orden público, no privado, de la plataforma». Y agregó: «Es necesaria la formulación de nuevas reglas y procedimientos. Los códigos de conducta no pueden ser usados por las empresas como justificación para violar derechos humanos».
Asimismo, el magister en Nuevas Tecnologías de la Información y de la Comunicación y licenciado en comunicación social de la Universidad Nacional de Rosario Fernando Irigaray subrayó el carácter de «peligrosidad» de una acción como la de silenciar a un presidente, más allá de acordar o no con sus ideas.
«No se trata de un dictamen de la Justicia sino de la decisión de una empresa. La discusión es mucho más amplia que lo comunicacional y lo legal, tiene que ver con la expresión; porque si esto pasa con alguien como Trump, con el nivel de poder que detenta, ¿qué queda para el resto? Con otro argumento pueden acallar a otras personas. ¿Qué pasa con lo político, lo social, los militantes en América latina? ¿Quién define lo que está bien o mal, lo aceptado o no? ¿Dónde está establecido y quién lo establece? Estamos viendo algo terrible, donde ya hay una atribución de algo supranacional. Estos conglomerados, estas empresas globales, están más allá y por encima de las leyes».
Empresas y derechos humanos
En estas semanas de análisis y debates sobre el comportamiento y las responsabilidades o no de estas empresas, Loreti señaló que le llama la atención la ausencia de dos temas: el informe Ruggie de la Organización de las Naciones Unidas y los Principios de Santa Clara.
En abril de 2008 se hizo público el «Informe del representante especial del secretario general para la cuestión de los derechos humanos y las empresas transnacionales y otras empresas», de la ONU, John Ruggie. El entonces funcionario expuso una propuesta para imponer responsabilidades en materia de derechos humanos sobre las empresas.
Diez años después, en febrero de 2018, un grupo de organizaciones de la sociedad civil y académicos norteamericanos presentaron los Principios de Santa Clara: un conjunto de estándares mínimos que consideran que Google, Facebook y otras empresas de internet deberían adoptar para ser más transparentes y mejorar la rendición de cuentas sobre sus «opacas» prácticas de «censura privada».
Es decir, ya existen iniciativas y debates que han intentado avanzar en materia de garantizar derechos humanos de parte de las empresas, más allá de la jurisprudencia de cada país donde estas empresas tienen su domicilio legal.
De igual modo, Irigaray planteó que se trata de un tema de mucha complejidad donde sería muy útil la intervención de especialistas de diferentes áreas que van desde el derecho a la comunicación social. Además, arriesga esta idea: «Seguramente este tema va a determinar nuestras próximas relaciones con este tipo de plataformas de expresión».