El objetivo de Facebook es agilizar el proceso y priorizar las entradas para que sean revisadas y no sigan afectando a los usuarios.
No cabe duda que uno de los principales problemas y críticas que ha recibido Facebook en los últimos años es el poco control de las publicaciones con información falsa y los discursos de odio. En ese sentido, la plataforma ha tomado diversas medidas para censurar este tipo de contenidos. Ahora, Facebook pretende mejorar el trabajo de los moderadores humanos con la ayuda de la inteligencia artificial.
De acuerdo a un informe de The Verge, Facebook implementará aprendizaje automático machine learning a su proceso de moderación. De esta manera, se le dará prioridad a las publicaciones dañinas, que serán analizados por los algoritmos y ordenados en base a criterios como viralidad, gravedad y violación a las reglas.
El objetivo es que los 15 mil moderados humanos de Facebook se hagan cargo de contenidos que requieran de una atención más rápida, ya que pueden resultar potencialmente más dañinos. De esta manera, se deja para más adelante las publicaciones que, por sus características, puedan esperar.
El uso de la inteligencia artificial en Facebook es agilizar el proceso y priorizar las entradas para que sean revisadas antes de que sigan afectando a los usuarios. Sin embargo, aunque la inteligencia artificial siga cobrando protagonismo y asumiendo tareas, desde la red social aseguran que aquellos incumplimientos en las medidas «seguirán recibiendo una revisión humana sustancial».
Sin duda, se trata de una decisión acertada, teniendo en cuenta la gran cantidad de contenido falso y discursos de odio que se lee en Facebook todos los días.