La historia de la compañía con decisiones difíciles muestra la necesidad de experiencia externa.
¿Qué pertenece a Facebook? Es una cuestión central en nuestro cálculo actual sobre las redes sociales, y dada la vastedad de la plataforma de la compañía, puede ser extremadamente difícil de responder. «Las noticias falsas no son su amigo” , dice la compañía, pero igual puede publicar todo lo que quiera. Las teorías de conspiración de Alex Jones, que inspiraron años de hostigamiento contra el padre de las víctimas del tiroteo Sandy Hook, estaban bien hasta que de repente no lo fueron . Todos parecen estar de acuerdo en que el terrorismo no pertenece a Facebook, aunque todavía hay más allí de lo que cabría esperar.
Pero imagina que puedes empezar desde cero. ¿En qué gobernarías y qué descartarías? Ese es el marco de este nuevo episodio de Radiolab , que narra la evolución de la política de contenido de Facebook desde una sola hoja de papel a 27 páginas de reglas cómicamente específicas sobre desnudez, sexo, violencia y más.
El podcast completo de una hora bien vale su tiempo. Examina tres debates de moderación, de mayor gravedad. El primero es sobre cuándo es apropiado mostrar la lactancia materna, un área en la que Facebook se ha vuelto gradualmente más liberal.
El segundo es acerca de cuándo se puede criticar lo que la ley llama una clase de personas protegidas: un género o una religión, por ejemplo. Esta es un área donde Facebook generalmente se ha vuelto más conservador. En un momento, la crítica a los «hombres blancos» estaba prohibida; ambas palabras son categorías protectoras, mientras que los «niños negros» no lo eran. El razonamiento fue que «niños» es una clase no protegida, y se puede decir algo sobre una clase no protegida, ya que Facebook no tiene manera de saber si su raza tiene algo que ver con su antipatía.
“Si la regla es que cada vez que se menciona una clase protegida podría ser un discurso de odio, lo que se está haciendo en ese punto es abrir todos los comentarios que alguna vez se hicieron sobre alguien en Facebook para ser potencialmente un discurso de odio», dice Simon Adler en el programa.
Desde entonces, esta política ha cambiado, y los niños negros ahora están protegidos de las peores formas de incitación al odio. «Sabemos que no importa dónde trazamos esta línea, habrá resultados que la gente no nos guste», le dijo a Adler Monika Bickert, directora de política de productos y antiterrorismo de Facebook. «Siempre habrá bajas». Es por eso que continuamos cambiando las políticas «.
El tercer debate es el más convincente. Es una historia de dos decisiones de moderación de contenido, con seis meses de diferencia en 2013. La primera se produjo después del atentado de la maratón de Boston, cuando las imágenes de las víctimas de los bombardeos se publicaron en Facebook. En ese momento, la política de la empresa sobre la carnicería no era «interior», lo que claramente violaba las fotos del bombardeo. Los ex moderadores anónimos de Adler le dijeron que después de un debate, un ejecutivo desconocido de Facebook dijo que las imágenes deberían permanecer, porque eran de interés periodístico.
Te puede interesar: Facebook anuncia servicio de citas ‘para relaciones serias’
Lo que Facebook está describiendo con estas ideas es algo así como un sistema de justicia, y hay muy pocas cosas en las que está trabajando que encuentro más fascinantes. Por todas las razones expuestas por Radiolab, un régimen de moderación de contenido perfecto probablemente sea demasiado para esperar. Pero Facebook podría construir y apoyar instituciones que lo ayuden a equilibrar las nociones competitivas de la libertad de expresión y una comunidad segura. En última instancia, la cuestión de qué pertenece en Facebook no puede ser decidida únicamente por las personas que trabajan ahí.