Facebook prohíbe uso de ciertas palabras: Infringe sus normas Redacción agosto 8, 2019 Ciencia-Tecnología Como seguramente ya sabes a estas alturas, Facebook tiene un listado de palabras y contenidos prohibidos. Estos son aquellas que insultan u ofenden a terceros. Por ejemplo, aquellas machistas, homofóbicas o racistas. Y ahora, se ha sumado una que ha generado polémica. ¿Qué pasa con Facebook y la tortillera? Lo curioso en este caso, es que la palabra en sí no es una grosería. Simplemente se refiere a la mujer que se dedica a hacer y vender tortillas. Así de sencillo: una tortillera. Pero como todo en este país, tiene doble sentido. Así también se le llama a las lesbianas. «Everyone will know» «Todo el mundo lo sabrá». Facebook tiene una «frase prohibida». Un conjunto de palabras que al ser publicada en la perfil de otra usuario puede producir el bloqueo de la cuenta. Esto es lo que descubrió, de forma amarga un usuario el pasado domingo al escribir a un amigo «Everyone will know» («Todo el mundo lo sabrá»). El usuario de Reddit ‘System Requirements’ hizo el descubrimiento de la ‘frase maldita’, según dijo «The Washington Post». Este contó que escribió la frase en el perfil de un amigo suyo en Facebook y la red social lo bloqueó de forma indefinida. Veamos cuáles son los contenidos que no puedes publicar en Facebook: Fotos de niños desnudos (incluido tus hijos): Mientras que Facebook admite que muchos padres comparten fotos de sus hijos desnudos con buenas intenciones, estas imágenes pueden ser usadas de manera inapropiada por otras personas. Fotos de pezones femeninos: Solo permiten imágenes donde se vea un pezón femenino cuando sean reinvindicativas (por ejemplo en una manifestación), de mujeres dando el pecho o de la cicatrización tras una mastectomía. Esto incluye los pezones de niñas mayores de 3 años. Dudar de la veracidad de una víctima: Llamar mentiroso o alegar que una víctima de una tragedia no está contando la verdad a cambio de dinero tampoco está permitido. Confesar un crímen: Puedes debatir sobre la legalidad de actividades criminales pero no confesar un crimen. Intentar comprar drogas: No está permitida la compra y venta de drogas en la plataforma. Esto incluye expresar interés en comprarlas o preguntar si una persona tiene. Ser insensible o cruel: Si desprecias a personas reales, burlándote de sus deficiencias físicas, enfermedades, discapacidades o muerte prematura tu post será retirado. Nada de traseros desnudos: No puedes publicar una foto de un trasero desnudo a no ser que esté sobre una figura pública con photoshop. Fomentar un comportamiento violento por el resultado de elecciones políticas: Tampoco está permitido publicar contenidos en el que fomentes la violencia o actividad violenta tras elecciones políticas. Exhibiciones de la actividad sexual: A no ser que sea con fines humorísticos, satíricos o educativos. Discurso de odio o incitación al odio: Cualquier lenguaje que inicite al odio está prohibido en Facebook, aunque si permiten comentarios así cuando sean humorísticos y sociales o cuando se intente concienciar o educar a otros, siempre con restricciones y que quede claro la intención. La forma en la que Facebook censura -o no- a sus usuarios acaba de ser revelada gracias a la publicación de varios documentos internos filtrados al diario británico The Guardian. Según el periódico, los documentos muestran cuáles son los criterios empleados por la gigantesca red social para decidir si un contenido es demasiado violento, sexual, racista, incita al odio o hace apología del terrorismo. The Guardian sostiene que los moderadores de Facebook están “sobrepasados” y tienen sólo algunos segundos para decidir si dejar o no los comentarios de sus usuarios. Y según el especialista en temas de tecnología de la BBC, Rory Cellan-Jones, la filtración parece confirmar algo que Facebook siempre ha negado: que ya no es una simple red social, sino una publicación con criterios editoriales. “Ha sido obvio desde hace algún tiempo que lidiar con el contenido controversial es uno de los retos más grandes que enfrenta Facebook”, afirma Cellan-Jones. La filtración The Guardian afirma haber obtenido más de 100 manuales usados internamente por Facebook para entrenar a sus moderadores acerca de lo que se puede y no se puede publicar en la plataforma. Por el momento, Facebook no ha negado ni confirmado la veracidad de los documentos. Pero los manuales cubren una amplia gama de temas sensibles, incluyendodiscursos de odio, porno por venganza, autolesiones, suicidio, canibalismo y amenazas de violencia. Y. como reconoce el mismo The Guardian, su publicación seguramente preocupará tanto a aquellos que exigen más acción por parte de la red social, como a los que están preocupados por el rol de facto de Facebook como “el mayor censor del mundo“. El periódico destaca, por ejemplo, que expresiones como “Qué alguien le dispare a Trump” deben ser borradas, pues en tanto jefe de Estado el presidente de EE.UU. está en una categoría protegida, pero que se puede conservar la expresión “Jódete y muere”, pues esa no es considerada una amenaza creíble. Y lo mismo aplica a expresiones como “Esa muchachita mejor que se quede tranquila antes de que papi le rompa la cara” o “espero que alguien te mate”. Excepciones En uno de los documentos filtrados, Facebook admite que “la gente utiliza lenguaje violento para expresar su frustración en línea” y “se siente segura” haciéndolo en la plataforma, explica The Guardian. “No todo el contenido desagradable o perturbador viola los estándares de la comunidad”, dice también Facebook en uno de los documentos. Así, como explica The Guardian, “los videos de muertes violentas, si bien deben ser marcados como ‘perturbadores’, no siempre tienen que ser borrados porque ayudan a crear conciencia sobre temas como problemas mentales”. “Algunas fotos de abuso físico y matoneo de menores, de carácter no sexual, tampoco tienen que ser borradas o requieren de alguna acción, a menos que haya un elemento sádico o de celebración”, explica también la publicación. Y, según los documentos filtrados, este tipo de imágenes tampoco se borran automáticamente “para que el niño pueda ser identificado y rescatado”. The Guardian también destaca que fotos de abusos de animales también pueden ser compartidas en Facebook “para generar conciencia” y solo las más extremas deben ser marcadas como “perturbadoras”. Y la red social también permite la transmisión en vivo de intentos de autolesionarse, porque “no quiere censurar o castigar a gente que está sufriendo”, revelan los documentos. Criterios confusos Varios moderadores de Facebook, entrevistados por el el periódico, describieron las políticas utilizadas por la red para evaluar el contendido como “peculiares” e“inconsistentes”. Y, según ellos, el proceso para decidir si conservar o eliminar contenido sobre tópicos sexuales es particularmente “confuso”. Los documentos muestran que Facebook cambió sus políticas sobre desnudez luego de la polémica que suscitó el año pasado cuando ordenó eliminar una icónica fotografía de la guerra de Vietnam porque la niña en la foto aparecía desnuda. Ahora la plataforma permite “excepciones noticiosas”, aunque eso no incluye imágenes de “desnudez infantil en el contexto del Holocausto”, explica The Guardian. Facebook también orienta a sus moderadores permitir el arte “manual” que muestre desnudos o actividad sexual, pero prohíbe sus representaciones digitales. Vistazo alarmante Según The Guardian, este vistazo al proceso de toma de decisiones de Facebook seguramente va a redoblar los llamados para que la red sea más cuidadosa con lo que publica o no, pero también para que sea más transparente con sus criterios. “Trabajamos duro para hacer que Facebook sea tan seguro como sea posible, mientras posibilitamos la libertad de expresión”, dijo, por su parte, en un comunicado, Monica Bickert, directora de políticas globales de Facebook. “Esto requiere mucha reflexión en torno a preguntas muy detalladas y a menudo muy difíciles, y hacerlo bien es algo que nos tomamos muy en serio“, agregó Bickert. En mayo, luego de duras críticas de un comité parlamentario británico, Facebook anunció que había contratado a 3.000 personas para que revisaran el contenido. La ONG británica Asociación Nacional para la Protección de la Crueldad con los Niños, dijo sin embargo, que el reporte sobre los criterios de Facebook publicado por The Guardian era “cuando menos alarmante”. “Necesitan hacer mucho más que contratar a 3.000 moderadores”, dijo la ONG en un comunicado. “Facebook, y otras redes sociales, deben ser reguladas de forma independiente y multadas si no logran mantener seguros a los niños”, es su propuesta. Por su parte, el Grupo de Derechos Abiertos, que trabaja temas de derechos digitales, dijo que el reporte demuestra la gran influencia que Facebook puede tener sobre sus 2.000 millones de usuarios. “Las decisiones de Facebook sobre lo que es y no es aceptable tienen grandísimas implicaciones para la libertad de expresión”, dijo la organización en un comunicado. Según la ONG, las filtraciones muestran lo complejo y difícil de esas decisiones. Pero aunque “Facebook probablemente nunca va a lograr ser perfecto” al menos “deberían ser más transparentes sobre el proceso”, sostiene. Según Cellan-Jones, sin embargo, Facebook no publica todas sus reglas, porque si da demasiados detalles, eso puede ayudar a los que tratan de abusar el sistema.