Catalina Botero, copresidenta del Consejo Independiente de Supervisión de Facebook, indicó al Grupo de Diarios América que los dirigentes deben cuidarse de no transgredir la barrera del derecho internacional, “que es la barrera del daño”
Catalina Botero, copresidenta del Consejo Independiente de Supervisión de Facebook, se refirió a la decisión de dicha plataforma de suspender la cuenta del expresidente Donald Trump. Dijo que, si bien respaldan la decisión adoptada, le dan seis meses de plazo al gigante tecnológico para que aclare en sus estatutos la figura de la “suspensión indefinida”.
Botero, en diálogo con el Grupo de Diarios América (GDA), advirtió que la decisión adoptada es un claro mensaje para otros líderes políticos que deben entender que hay límites cuando existen discursos que “pueden generar un daño efectivo y sustancial en la vida de las personas”.
Y también recordó que la Comisión Interamericana de Derechos Humanos dejó claro que el uso arbitrario de la publicidad oficial “para mentir consistentemente, estigmatizar o elevar el riesgo de otras personas viola la libertad de expresión de esas otras personas”.
‒Ustedes decidieron respaldar la decisión de Facebook de bloquear las cuentas del expresidente Trump. ¿Qué motiva ese respaldo?
‒Lo que hizo Facebook el 7 de enero fue suspender indefinidamente las cuentas de Facebook e Instagram del entonces presidente Trump y ahí hay dos decisiones: la suspensión y que esa suspensión sea indefinida. Hablemos de la primera. Nosotros estamos de acuerdo con la primera decisión, consideramos que es adecuado porque respeta, tanto las reglas de Facebook y de la comunidad, como el derecho internacional de los derechos humanos. Nosotros consideramos que el contenido que el entonces presidente estaba subiendo a Facebook, en ese contexto, podía generar violencia y daño en la vida real, y el presidente sabía o debía saber que eso era posible. Y el daño no era menor, era sustancial dado el contexto en el que ese contenido fue subido a la plataforma. Y por lo tanto Facebook actuó, porque sus reglas prohíben subir ese tipo de contenido. Esta prohibición es compatible con el derecho internacional de los derechos humanos, por lo que consideramos que esa suspensión era legítima.
‒Sin embargo, ustedes se oponen a que ese veto sea permanente e indefinido. ¿Qué los lleva a fijar esa postura y darle seis meses a Facebook para que aclare sus reglas de juego para tomar estas decisiones?
‒Esa es la segunda parte de la decisión, no solo se suspende la cuenta, sino que la suspenden de manera indefinida. Al revés de la primera decisión, la suspensión cuenta cuando el usuario viola de manera grave las normas comunitarias, y está claramente descrita en Facebook como una posible consecuencia de esa violación. Lo que no está descrito ‒que Facebook creó de manera ad hoc para este caso‒, es la suspensión indefinida. ¿Qué puede hacer Facebook cuando un usuario sube un contenido que, según la plataforma, viola sus normas comunitarias? Puede hacer una de tres cosas: bajar el contenido o etiquetarlo, suspender la cuenta por un tiempo limitado ‒donde dice “yo le suspendo la cuenta por tres o seis meses”‒ o impedir que la cuenta siga funcionando, es decir, definitivamente deshabilitar la cuenta. Pero la figura de la suspensión indefinida, que no es deshabilitarla permanentemente pero tampoco le pone un plazo, no está consagrado en las reglas de Facebook. Lo que nosotros le decimos a la plataforma es que tiene que operar de conformidad con las reglas claras, que los usuarios conozcan, no controvertidas y respecto a las cuales se rinda cuentas. Los usuarios, líderes políticos, influenciadores o de cualquier naturaleza tienen derecho a saber cuáles son las consecuencias de una violación de sus estándares comunitarios y esa consecuencia no se tenía prevista. Como no la tenía prevista y se la inventó para este caso, es ilegítima. Por eso le decimos a Facebook que en los próximos seis meses evalúe, teniendo en cuenta la gravedad de la violación cometida y evaluar el posible daño futuro, y tome una decisión que se ajuste a sus reglas.
‒¿Y en caso de que Facebook aclare y acate lo que están pidiendo, ustedes tendrían que volver a revisar el caso?
‒Nosotros volvemos a revisar si Facebook nos lo vuelve a remitir. Nuestra competencia original es revisar casos concretos respecto al contenido que Facebook decidió quitar de la plataforma, no revisar decisiones sobre cuentas. Es totalmente distinto que Facebook decida bajar un contenido a que decida suspender o inhabilitar una cuenta. Cuando Facebook decide suspender o inhabilitar una cuenta, nosotros solo adquirimos competencia cuando nos pregunta, en este caso nos preguntó nuestra opinión sobre la suspensión indefinida de las cuentas de Facebook e Instagram del entonces presidente Donald Trump. Si cualquier decisión que toma, salvo que sea sobre un contenido específico, entonces sí podríamos conocerla por vía de apelación del usuario, si es sobre la cuenta podríamos conocerla si Facebook remite el caso de nuevo al consejo.
‒El expresidente Trump ha dicho que le arrebataron su derecho a la libertad de expresión. ¿Usted lo ve así?
‒Yo creo que el expresidente y todas las personas en la plataforma y fuera de esta tienen derecho a la libre expresión, a decir cosas que los demás no queremos oír, tienen derecho incluso a decir cosas que pueden ofender y molestar. Pero hay unos límites en los derechos humanos. Una persona no puede, por ejemplo, incitar a la violencia. La política que usó Facebook en este caso es la de organizaciones o individuos peligrosos que prohíbe expresamente que se alabe o aplauda un hecho violento. En este caso, el contenido que el expresidente Donald Trump subió, aplaudía y congratulaba un hecho violento, apoyaba a quienes incurrieron en hechos de evidente violencia en la toma del Capitolio. Violó, claramente, las reglas de la plataforma, y nuevamente esas reglas son totalmente coincidentes con el derecho internacional de los derechos humanos. Así que no se le arrebató su libertad de expresión, abusó de la plataforma y esta aplicó unas reglas que son congruentes con normas globales de libertad de expresión.
‒¿Le preocupan las amenazas del expresidente Trump a las empresas tecnológicas de que van a pagar un alto costo político por lo que le hicieron?
‒Eso hay que preguntárselo a Facebook. Nuestra competencia es revisar si la decisión de Facebook corresponde con sus normas internas y de los derechos internacionales de derechos humanos, y eso es lo que hacemos. A mi juicio, lo que tiene de virtuoso este consejo es que puede operar al margen de los intereses económicos, políticos y reputacionales de Facebook.
‒¿La pauta publicitaria que funcionarios le pagan a redes sociales para generar a veces desinformación, debería ser un tema que revise Facebook?
‒El Consejo de Supervisión, como le mencioné, lo que hace es estudiar decisiones concretas de Facebook respecto a determinados contenidos que violen el derecho internacional de los derechos humanos. O sea, nosotros no revisamos las pautas comerciales de Facebook porque no es nuestra tarea. Ahora me pongo el sombrero de relatora de la libertad de expresión: la relatoría de la libertad de expresión ha expedido una serie de informes sobre la publicidad oficial. La publicidad oficial no puede ser utilizada, ni el lenguaje ni el discurso de los funcionarios públicos, y lo digo como relatora. Lo que ha dicho la relatoría y ha sido avalado por la Comisión Interamericana de Derechos Humanos es que el uso arbitrario de la publicidad oficial, por ejemplo, para mentir consistentemente, estigmatizar o elevar el riesgo de otras personas viola la libertad de expresión de esas otras personas. Lo que tiende a hacer es silenciar y utilizar todos los mecanismos estatales a las otras personas para lo que en inglés se llama un chilling effect, un efecto intimidatorio. Esto no lo puede hacer un funcionario público de conformidad con los estándares del sistema interamericano de protección de los derechos humanos.
‒¿Además de Trump, hay otros líderes que estén en la mira por las mismas actuaciones del exmandatario norteamericano?
‒Hay cosas que me gustaría decirles. Una, que nosotros habíamos seleccionado un caso de un político muy importante en Malasia, pero el usuario decidió dar de baja el contenido, entonces ahí ya no somos competentes. Si hay esos casos, es muy importante para el consejo conocerlos, porque es muy importante definir reglas globales y estándares para la moderación de contenidos en ciertos casos.
Lo que está claro, y nosotros le preguntamos a Facebook, es si utilizaba las mismas reglas respecto de otros líderes, y qué tipo de procesos llevaba a cabo cuando verificaba contenido potencialmente violatorio a sus estándares comunitarios provenientes de otros líderes importantes. Facebook consideró que esa respuesta no era relevante para contestar en este caso específico. Entonces nosotros no nos referimos a eso en la decisión, yo no le puedo contestar porque Facebook no nos dio la información. Pero le pedimos a la plataforma un estudio de esas normas, que sean claras, se apliquen de la misma manera a todos los líderes políticos, que sus usuarios puedan conocer, controvertir y sean normas que se ajusten al derecho internacional de los derechos humanos.
‒¿Qué puede significar la decisión para otros líderes que provocan enojo en las redes, como Jair Bolsonaro o Rodrigo Duterte? ¿Podemos tomarlo como una alerta?
‒Sin referirme a casos específicos, porque son casos que nuevamente pueden llegar al consejo al cual pertenezco. Creo que la decisión, que es de más de 30 páginas, muy robusta desde el punto de vista del derecho internacional de los derechos humanos, que acoge los criterios más elevados de derecho constitucional y de derecho comparado en materia de libertad de expresión, sí manda unos mensajes muy claros. Es importante saber lo que dicen los líderes políticos, las audiencias tienen derecho a saber lo que dicen los líderes políticos, tanto sus seguidores como quienes no los siguen para poder hacerles control social. Eso hace que ese discurso tenga una relevancia particular, pero al mismo tiempo los líderes políticos no pueden decir y hacer cualquier cosa a través de las plataformas porque tienen una potencia y un megáfono muy grande que no tienen otros usuarios. Al influenciar a las audiencias y crear imaginarios, esos líderes deben cuidarse de no transgredir una barrera del derecho internacional, que es la barrera del daño. Si esos líderes con su discurso, con la potencia que hablan y la capacidad que tienen de hacer cosas cuando dicen cosas, pueden generar un daño efectivo y sustancial en la vida de las personas, ahí hay un límite. Ahí las plataformas de Facebook e Instagram están habilitados y legitimados para tomar decisiones como la suspensión de la cuenta o dar de baja el contenido. El veredicto refuerza que en varios puntos que Facebook necesita ser más transparente en su criterio y afirma que fue inapropiado imponer una suspensión indefinida.
‒¿Cree que las redes sociales, en general, son lo suficientemente claras en sus decisiones de moderación? Si no es así ¿Cómo se puede mejorar esto?
‒Esa fue la razón por la cual nosotros consideramos que la suspensión era legítima, pero no la suspensión indefinida, porque no hay claridad de por qué tomaron esa decisión de suspender indefinidamente. Entonces Facebook queda con el poder discrecional de decir cuándo el usuario puede otra vez utilizar su cuenta o cuándo no puede hacerlo. Nosotros consideramos que deben hacer reglas claras y similares para todos los usuarios que caigan en condiciones similares. En este caso lo que era claro era que esa regla no existía, y por lo tanto la decisión era ilegítima. Nadie puede controlar lo que hace Facebook si la plataforma puede tomar decisiones ad hoc y lo que decimos es que establezcan reglas claras, transparentes, que todos los usuarios puedan conocer y comprendan, y utilicen esas reglas para moderar contenidos en todos los casos similares. Además, que se les explique a los usuarios ciertos procesos que no conocen. Por ejemplo, Facebook dice que en el caso de los líderes políticos hacen un doble chequeo. ¿Qué significa un doble chequeo? ¿Con quién lo hacen? ¿Intervienen personas que tienen garantías de independencia o son personas que van a seguir los intereses de los dueños de la compañía? Nosotros les decimos que aclaren, que traten de garantizar que las personas que tomen esa primera decisión, porque nosotros nos demoramos más, a apelación llegamos nosotros. Que esas decisiones rápidas estén informadas por gente que no esté supeditada a la plataforma y que pueda tomar decisiones al margen de los intereses económicos o reputacionales de la plataforma.
‒Quiero apelar a su experiencia en libertad de expresión a lo que está pasando con las redes. Allí se ha democratizado el debate, ¿pero no representa una amenaza para las democracias en tiempos convulsionados como los que estamos viviendo en Colombia en determinadas circunstancias?
‒Las redes sociales son un instrumento de comunicación y acción colectiva. Sirven para denunciar abusos que a veces no se anuncian de otra manera, para presionar políticas a través de acción colectiva. Pero a través de las redes sociales también puede haber una coordinación para producir un daño. En esos casos, todas las redes tienen unos estándares que prohíben hacer eso. Entonces, si alguien cree que las redes están siendo utilizadas de esa manera podrían denunciarlo y las redes tienen que investigar si realmente hay un uso coordinado para producir un daño o si lo que hay es una comunicación pública y espontánea que denuncia hechos de violencia o de maltrato. Nosotros hemos podido conocer -y también los periodistas que no pueden cubrir todos los rincones del país y menos en una situación de pandemia como esta-, muchos abusos policiales y muchos actos de vandalismo gracias a las redes sociales. Por eso, lo que hacen los policías muchas veces, por supuesto no todos, en los casos que hemos visto es muy preocupante quitarles a las personas el teléfono, porque es un mecanismo para denunciar ese tipo de abusos. Yo creo que tenemos que ser cuidadosos con ese tipo de análisis.
‒Existe un debate en Estados Unidos sobre si aligerar o no la legislación que protege a las redes sociales de hacerse responsables de lo que publican sus usuarios. ¿Culparlos sería una forma efectiva de contener la desinformación?
‒Yo creo que sería un error monumental, porque se llenarían de abogados que les recomendarían que, ante cualquier posibilidad mínima de un eventual daño, bajar un contenido. Lo que creo es que deben existir reglas, como en efecto existen en algunos sitios donde, por ejemplo, frente a una orden judicial o de un órgano independiente, se debe dar de baja a un contenido. Frente a una denuncia, por ejemplo, que esa red está transmitiendo pornografía infantil, se debe dar de baja el contenido. Que no tienen la obligación de hacerlo proactivamente porque si tú tienes una comunidad de más de 3.000 millones de usuarios que están poniendo miles de millones de contenidos diariamente no tienes cómo hacer esa vigilancia proactiva, y lo que te dirían los abogados para protegerte es que bajes todo lo que pueda implicar un riesgo. Entonces se baja el humor, la sátira, la crítica, el periodismo investigativo y se queda todo lo que no podría representar un daño.
‒Se habla mucho de que los algoritmos de las plataformas son propicios para impulsar la retórica polarizante, algo común en nuestros países, retener audiencia y en consecuencia lucrar con la publicidad. Dado esto, ¿es suficiente la moderación por sí sola para contener la moderación?
‒Primero, los algoritmos generan cámaras de eco, nichos en los cuales la gente se siente muy confortable porque uno ve solamente a las personas que piensan como uno, y eso parece ser muy reconfortante para mucha gente y se convencen de que esa es toda la realidad, y de lo que haya afuera son unas cosas exógenas que hay que eliminar. Creo que eso fomenta la intolerancia, el fanatismo, debilita la capacidad que tenemos para ser capaces de oír al otro con respeto y para dar argumentos. Los algoritmos tienen un efecto que en ese sentido hay que revisar, y por eso nosotros le preguntamos a Facebook expresamente si el uso de algoritmos u otros aspectos en la red sirvieron para amplificar los discursos que pudieron generar la violencia del 6 de enero. Les preguntamos si habían hecho una investigación si a través su plataforma se utilizaba para amplificar esos discursos. Facebook no nos contestó. Nos dijo que no era relevante para responder este caso concreto. Entonces, en las recomendaciones de este caso les decimos que por favor hagan el estudio sobre si algunos de sus mecanismos pueden servir para que algunas personas abusen de su plataforma o para que se amplifique ese discurso de manera tal que usted pueda tomar decisiones a tiempo cuando pasan cosas tan graves como la que pasó el 6 de enero en Estados Unidos en la toma violenta del Capitolio.
Por Ernesto Cortés
Editor jefe de El Tiempo
Comment here