Ofertas en tecnología

Cómo Facebook decide qué contenido eliminar o no – TecnoBreak

Altavoz inteligente Echo Dot

as las mejores ofertas ,
sin cola atascada

whatsapptelegram

Facebook tiene 4.500 empleados que se dedican exclusivamente a la revisión del contenido publicado en la red social. Este número debería aumentar a 7.5 mil para fin de año. Además de esta información, la compañía nunca reveló muchos detalles sobre el tema. Sin embargo, los documentos confidenciales obtenidos por The Guardian muestran cómo se realiza este trabajo y dan idea de cuán desafiante es para Facebook para evitar que el contenido dañino prolifere.

Desafiando porque, para comenzar, el La red social tiene alrededor de 2 mil millones de cuentas, muchas personas publican y comparten contenido cada segundo. Además, la compañía tiene que lidiar constantemente con el hecho de que a menudo es difícil separar la moderación correcta de una ley de censura equivocada.

Es por eso que hay tantas pautas. Ayudan a los moderadores a tomar decisiones sobre el contenido que promueve la violencia, la pornografía, el racismo, los discursos de odio, el terrorismo, etc., incluso existen pautas específicas sobre el canibalismo. No es raro que un moderador se queje de inconsistencias o presente interpretaciones divergentes para ciertas situaciones. Las pautas explican que muchos usuarios pueden usar palabras que motivan la agresión como una forma de extravar sentimientos inquietantes y, por lo tanto, no es un tipo de contenido que debe tratarse como una amenaza potencial. Es posible comentar algo como «Espero que mueran» o «romperse el cuello (…), aprietar con toda su fuerza …» si las personas o grupos no se identifican claramente como un objetivo. Pero escribir «que alguien arroje a Trump», por ejemplo, puede traer problemas: como una autoridad máxima de una nación, cualquier amenaza para Donald Trump debe ser tratada con rigor absoluto, por pequeño que sea.

el El presidente no puede ser amenazado, ni siquiera jugando casos como este hasta que sean fáciles de diferenciar. Otros, sin embargo, son muy delicados. Facebook afirma que ciertos videos de muerte violentos pueden mantenerse en la red social porque ayudan a crear conciencia sobre los problemas mentales, por ejemplo. Pero, ¿cómo diferenciar correctamente una escena que exprese odio de uno que tiene un problema personal como antecedentes? El abuso físico se permite, excepto cuando se celebra o acompañan un elemento sádico; El abuso de escenas animales también se puede publicar siempre que las imágenes no sean «extremadamente inquietantes» o no fomenten esta práctica., Un adolescente o un adulto joven, practica violencia en él, especialmente la auto -mutilación. Facebook guía a los moderadores a no bloquear este tipo de contenido para no dejar a la persona, que ya está bajo un fuerte estrés, aún más molesto. P> El contenido de contenido sexual es una categoría especialmente complicada. Las imágenes sexuales explícitas están prohibidas, obviamente. Sin embargo, se permiten exhibiciones moderadas de sexualidad, prendas provocativas e incluso actividad sexual entre adultos con detalles de «pixelato». El arte «hecho a mano» (como pinturas y esculturas) también se libera la desnudez; Pero si el arte se realiza digitalmente, no. Por ejemplo, puede decirle a alguien que quiere hacer eso, pero no puede expresar dónde o cómo. Confundido, ¿no? Es por eso que la guía estándar es eliminar si el contenido se denuncia, incluso si el mensaje no es detallado.> Es necesario moderarse, pero es complicado

aunque Facebook no ha confirmado ni negado la legitimidad de los documentos filtrados , Monika Bickert, gerente de políticas global de la compañía, dijo a The Guardian , que es difícil para el servicio llegar a un consenso sobre lo que debe bloquearse o no. Por ejemplo, las fotos que muestran a las personas se besan son bien toleradas en muchos lugares, pero en otros son tan libidinosas como los actos sexuales. La red social, los casos de problemas emocionales en los equipos, ya sea por el estrés de las decisiones o por el choque causado por cierto contenido, no son raros. /P>

A pesar de las dificultades, Bickert asegura que Facebook permanezca comprometido a mantener La seguridad de la red social. Además de aumentar el equipo de moderación, la compañía está desarrollando herramientas que prometen ser más efectivas en el filtrado de contenido, así como crear medios que permitan al usuario denunciar publicaciones peligrosas más fácilmente. Facebook tenía una opción. La propia compañía reconoce que no puede controlar todo lo que aparece en el servicio. La salida, por lo tanto, es buscar formas de suavizar el problema. Pero como las respuestas paliativas no son soluciones, es cierto que el sujeto aún generará mucha controversia.

Tommy Banks
Estaremos encantados de escuchar lo que piensas

Deje una respuesta

TecnoBreak | Ofertas y Reviews
Logo
Enable registration in settings - general
Shopping cart