Portada

Facebook prepara un tribunal de apelación para usuarios entre dudas sobre su alcance

Dar el pecho en Facebook era pecado.


Sábado, 18 de Mayo de 2019

Dar el pecho en Facebook era pecado. Hasta hace poco, la imagen de una madre amamantando a su bebé podía ser eliminada sin miramientos por violar las normas internas que prohíben la desnudez. Un grupo de afectadas incluso creó una página de protesta: “Facebook, esperamos más de ti. ¡Deja de clasificar las imágenes como obscenas!”. La retirada de este tipo de publicaciones se ha convertido en ejemplo de los límites del gigante tecnológico para controlar eficazmente el rastro dejado por sus más de 2.000 millones de seguidores.

Estas madres y todos aquellos usuarios que no estén de acuerdo con la eliminación de sus publicaciones ahora tendrán una puerta a la que tocar. Inmerso en una crisis de confianza sin precedentes, Facebook avanza hacia la creación de su Tribunal Supremo particular. Sin togas ni mazos de juez, con una jurisdicción virtual y ciudadanos que se llaman “usuarios”, el Consejo Asesor de Contenido tendrá la última palabra sobre la eliminación de ciertos mensajes y podrá obligar a la empresa a restaurarlos. Aunque está previsto que empiece a emitir juicios a finales de este año, todavía quedan muchos flecos sueltos y los expertos tienen dudas sobre su impacto e independencia.

Para allanar el camino, Facebook ha lanzado una consulta pública por internet y está organizando reuniones con la sociedad civil. La última, celebrada en Ciudad de México esta semana y a la que EL PAÍS ha podido asistir, ha reunido a unas sesenta personas de toda Latinoamérica, entre periodistas, abogados y activistas, para debatir el diseño del nuevo organismo. La compañía ha reservado toda una planta en el lujoso hotel Marriott de la capital mexicana. En la principal sala de conferencias colgaba un telón azul oscuro, el color de Facebook, junto a seis mesas con un ipad, libreta y bolígrafo para uso de cada participante durante los dos días que dura el programa. Sobrevolando la escenografía, una pregunta: ¿es esto real o un lavado de cara simbólico?

Ante las dudas, el vicepresidente de Facebook para Integridad, Guy Rosen, advierte: “No es un ejercicio de relaciones públicas”. La idea llega tras la batería de escándalos que ha sacudido Facebook en 2018. Desde la fuga masiva de datos de Cambridge Analytica a su inacción ante los mensajes de odio en el conflicto étnico de Myanmar, el annus horribilisde la empresa ha colocado a su fundador Mark Zuckerberg entre la espada y la pared. “Facebook no debería tomar tantas decisiones importantes sobre libertad de expresión y seguridad por sí mismo”, reconoció en noviembre pasado.

Hasta ahora, Facebook ha manejado a placer la varita juzgadora. Y lo ha hecho millones de veces. Solo en la categoría de incitación al odio, la compañía eliminó tres millones de publicaciones de julio a septiembre de 2018, según su último Informe de Transparencia. La compañía quiere que el nuevo Consejo se encargue de decidir sobre los casos más difíciles; los más mediáticos o aquellos cuyos matices necesiten del conocimiento de las eminencias que previsiblemente lo compondrán. Tanto Facebook como los usuarios podrán apelar a él.

El vicepresidente de Facebook Guy Rosen.© Jonás Cortés El vicepresidente de Facebook Guy Rosen.

Serán apenas cuarenta personas frente a millones de comentarios, un desequilibrio que preocupa a los expertos. “El Consejo decidirá sobre una pequeñísima fracción de casos, por lo que el impacto puede acabar siendo muy pequeño”, dice Eduardo Ferreyra, abogado de la ONG argentina Asociación por los Derechos Civiles, presente en la reciente reunión en Ciudad de México. “Debería de tener algún tipo de influencia en el desarrollo de los estándares o en el diseño del algoritmo”.

Por ahora, el sacrosanto algoritmo está fuera de la mesa y, en cuanto a las normas, Facebook solo contempla que el Consejo pueda emitir “recomendaciones”. La empresa mantendrá para sí las riendas sobre los estándares que regulan la eliminación de comentarios controvertidos y que varios activistas han criticado por no estar basados en reglas ampliamente reconocidas. “El lenguaje común no deben de ser los Community Standards, sino un marco de derechos humanos”, opina Vladimir Cortés, de la ONG mexicana Artículo 19.

Los mismos responsables de Facebook reconocen que el Consejo no es una panacea, sino la punta de una pirámide mucho mayor en cuya base están los revisores de contenido. Estos son los peones encargados de valorar cada comentario polémico y de decidir si se mantiene o se elimina. Son apenas 14.000, distribuidos en unos 20 países y reciben formación sobre cientos de directrices que cambian constantemente.

Pese al crecimiento del número de revisores, el doble que hace un año, la red sigue quedándose corta. Según un reportaje reciente del New York Times, estos empleados subcontratados se enfrentan a jornadas extenuantes en las que tienen que abordar hasta 1.000 casos. Rosen matiza ese extremo: “No fijamos objetivos; si necesitan más tiempo, lo pueden tener”. Además, señala, los avances tecnológicos permiten afinar cada vez más la detección de mensajes controvertidos y eliminarlos sin necesidad de mano de obra. Aun así, se siguen dando acciones contradictorias; algunas veces se eliminan mensajes inofensivos, y otras se dejan publicaciones como la retransmisión en vivo del terrorista que asesinó recientemente a 50 personas en una mezquita de Nueva Zelanda.

El Consejo, la punta de lanza del nuevo sistema de vigilancia, puede ser la última oportunidad de Facebook. Hay voces poderosas, como la del cofundador de la compañía Chris Hughes, que han llamado a la creación de una agencia gubernamental independiente encargada de regular el contenido. “Puede que acabe siendo así”, reconoce Rosen, “pero nosotros tenemos un calendario muy ambicioso y no estoy seguro de que el Gobierno pueda levantarse tan rápido”.

Jon Martín Cullell.