Redacción Canal Abierto | “Los trabajadores de Alphabet (Google) se han organizado previamente contra la continua negativa de la compañía a tomar medidas significativas para eliminar el odio, el acoso, la discriminación y la radicalización de YouTube y otras plataformas operadas por Alphabet, sin éxito. Advertimos a nuestros ejecutivos sobre este peligro, sólo para ser ignorados o recibir concesiones simbólicas, y los resultados han sido suicidios, asesinatos en masa, violencia en todo el mundo y ahora un intento de golpe en el Capitolio de los Estados Unidos”.
El que antecede es un fragmento del comunicado que el flamante sindicato conformado por los trabajadores del gigante Google -Alphabet Workers Union (AWU)- emitió luego de que un grupo de seguidores de Donald Trump intentara tomar el Capitolio estadounidense. Y una de las miradas que entraron en debate cuando las cuentas de Trump en Facebook, Instagram y Twitter fueron suspendidas simultáneamente por, según el propio Mark Zuckerberg, “incitar a la insurrección violenta contra un gobierno democráticamente elegido”.
El rol de curaduría y, eventualmente, censura ejercido por las plataformas no es nuevo y es parte de sus “términos y condiciones” pese a que se venden a sí mismas como meras intermediarias sin línea editorial. Su influencia en la propagación de mensajes de odio tampoco es nueva. Sin embargo, las normas internas y los criterios para eliminar mensajes fueron mutando con el correr del tiempo y de los contextos.
Durante la pandemia de COVID-19, las plataformas se abocaron a tratar de reducir las fake news (falsas noticias) sobre el virus. En marzo, Twitter había eliminado dos tuits del presidente de Brasil, Jair Bolsonaro, donde alentaba a las personas a salir de sus casas y publicitaba la cloroquina como remedio para el coronavirus, contra todas las pruebas científicas al respecto.
El caso de Trump, sin embargo, elevó el debate a otro nivel: ¿puede un grupo de corporaciones silenciar a un jefe de Estado? ¿Tienen las plataformas responsabilidad sobre lo que en ellas se publica? Si es necesario regular la propagación de los discursos de odio, ¿son empresas privadas las que deben hacerlo?
Debate abierto
El bloqueo de las plataformas del presidente de Estados Unidos ocurre apenas un mes después de que la Comisión Europea lanzara una propuesta para regular los servicios digitales. “La pregunta fundamental es cómo hemos llegado a esto y por qué las plataformas no actuaron antes contra la incitación al odio y contra la desinformación. Y precisamente, en la nueva legislación sobre servicios digitales se encuentra la respuesta de la Unión Europea”, afirmó su portavoz, Johannes Bahrke. Allí la UE pretende otorgarles a las redes responsabilidad editorial sobre lo que en ellas se difunde.
En tanto, para el Comisario europeo de Mercado Interior, Thierry Breton, esta situación marca un antes y un después para las plataformas digitales. “Un dogma se ha derrumbado. Las plataformas ya no ocultan su responsabilidad argumentando que simplemente brindan servicios de hospedaje. El asalto al Capitolio es el 11 de septiembre en las redes sociales”, sostuvo en su cuenta de Twitter.
A nivel local, diversos analistas también tomaron partido.
“Las restricciones al derecho a la libertad de expresión no pueden ser fruto de una evaluación impulsiva de corporaciones dueñas de las plataformas digitales que alteran su algoritmo al calor de intereses particulares o de presiones externas para disminuir las operaciones de desinformación, la difusión de mensajes de odio o el alcance de las llamadas fake news. Como señaló la Corte Interamericana de Derechos Humanos en su Opinión Consultiva 5/85, no sólo los poderes públicos pueden censurar, sino también los privados (…). Si estas reglas que hoy son definidas unilateralmente por las plataformas digitales fueran resultado de un proceso democrático, luego las empresas dueñas de las redes podrían adaptarse sin alterar en sustancia su autopercepción como intermediarias”, sostiene Martín Becerra, investigador del CONICET y experto en comunicación en elDiarioAR.
Desde el punto de vista legal, en una artículo publicado por la abogada y directora general de Asuntos Jurídicos del Senado, Graciana Peñafort, en El cohete a la Luna ella se pregunta: ¿pueden las corporaciones determinar qué podemos ver, leer o acceder? “Mi intuición a esta altura está gritando que no pueden hacer eso. Y que menos aún pueden hacerlo cuando a la par de arrogarse decisiones de corte editorial como en el caso Trump, en los casos que son demandadas por contenidos que publican ciertos usuarios, estas empresas se defienden señalando que no son ellas las responsables del control editorial de las publicaciones de los usuarios”, se responde. Y sugiere que el debate se resuelve con más debate y más democracia, lo que significa más intervención de las instituciones públicas en él.
Finalmente Pablo Boczkowski, especialista en ciencia y tecnología, y Eugenia Mitchelstein, docente e investigadora sobre comunicación y nuevos medios, resumen, en un análisis publicado por Infobae, el eje del conflicto: “Dejar que Twitter regule la comunicación en el ambiente digital es como dejar que las empresas automotrices regulen el tránsito o que la industria de la construcción regule los códigos edilicios en el ambiente urbano. Lo que sucedió con Donald Trump es el síntoma de un Estado ausente, que delega en el sector privado parte de su responsabilidad de regular un bien que se ha vuelto cada vez más esencial para la calidad de vida en la sociedad contemporánea”.
Ilustración: Marcelo Spotti