Facebook aplica nuevas medidas para detectar el odio y la violencia

Facebook, como el resto de compañías de redes sociales, depende en buena medida de los algoritmos y de la Inteligencia Artificial (IA); para controlar los mensajes que se vierten en su interior y violan sus normas.

Facebook
FOTO: REFERENCIAL

Sin embargo, esta tecnología ni es infalible ni es capaz de limpiarlo todo. Y eso lo saben hasta los ingenieros de la plataforma.

Según el diario estadounidense ‘ The Wall Street Journal’, que ha accedido a información interna de Facebook; la IA que emplea la red social registra errores a la hora de identificar «con consistencia» el contenido que va contra sus normas en lo que respecta al odio o la violencia.

La tecnlogía incluso da problemas a la hora de diferenciar peleas de gallos de accidentes automovilísticos.

¡FACEBOOK Y LOS PROBLEMAS DE INTEGRIDAD!

El problema es que no tenemos y posiblemente nunca tendremos un modelo que capture incluso la mayoría de los daños a la integridad, particularmente en áreas sensibles»; afirma en un documento de 2019 un ingeniero de la plataforma.

Otro informe, en este caso realizado en marzo de 2021; apuntaba que la Inteligencia Artifical de la empresa solo limita entre un 3 y un 5% las visualizaciones de contenido contrario a sus normas mediante la eliminación de las publicaciones.

«Estimaciones recientes sugieren que, a menos que haya un cambio importante en la estrategia, será muy difícil mejorar esto más allá del 10-20% en el corto o medio plazo»; destaca un ingeniero de la empresa en otro documento.

¡EN DUDA LA COFIANZA DE LAS REDES SOCIALES!

‘WSJ’ destaca que estas estadísticas contrastan con la confianza que la red social tiene en la Inteligencia Artificial para combatir el contenido que rompe con sus normas.

El medio recuerda que Mark Zuckerberg, director ejecutivo de Facebook, afirmó en 2018 ante el Senado de Estados Unidos que estimaba que dentro de 5 o 10 años la plataforma sería capaz de detectar la mayoría de mensajes en los que se incita al odio con tecnología.

Facebook, por su parte, no ha tardado en salir al paso de la información compartida por el medio estadounidense. Destaca que su estrategia de moderación está centrada en el control de «la prevalencia; la cantidad de discurso de odio que las personas ven en la plataforma» más que en la eliminación de contenido.

EFE