Twitter pedirá a los usuarios que reconsideren sus respuestas ofensivas

Con el fin de evitar comentarios que inciten al odio o la violencia Twitter creó una herramienta de moderación para advertir a los usuarios antes de publicar respuestas ofensivas. Esto evitará que el usuario responda a un tuit con lenguaje un que la compañía considere ofensivo o dañino.

Foto: Referencial

La nueva actualización tiene uso limitado, disponible para dispositivos iOS. Hasta el momento se usa únicamente como un experimento de la red social. De esta forma, se busca controlar el mal uso de la plataforma por parte de los usuarios.

Aún no está claro como Twitter etiqueta las respuestas ofensivas, pero la compañía tiene políticas de discurso de odio. También hay reglas para enfrentar las amenazas de violencia, contenido relacionado con, abuso y acoso.

En este mismo documento también manifestó su compromiso por “combatir el abuso motivado por el odio, el prejuicio o la intolerancia. Particularmente el abuso que busca silenciar las voces de aquellos que son marginados. Por esta razón, prohibimos el comportamiento dirigido a personas con abuso basado en la categoría protegida”.

Plataformas como Instagram ya hacen uso de esta herramienta al advertir a los usuarios antes de realizar una publicación con el lema: “El texto se parece a otros que han sido reportados”.

“La misión de Twitter es dar a todos el poder de crear y compartir ideas e información, y expresar sus opiniones y creencias sin barreras. La libre expresión es un derecho humano”, manifiesta la red social en su documento de Reglas y políticas.