Facebook comenzó a desplegar sus capacidades de inteligencia artificial para ayudar a evitar que los terroristas usen sus servicios, señaló la compañía el jueves.
Funcionarios de la empresa dijeron en un blog que Facebook utilizará inteligencia artificial así como revisores humanos para encontrar y remover inmediatamente “contenido terrorista”, antes de que otros usuarios lo vean.
Le puede interesar ► Facebook agrega bander de arcoíris en sus emociones
Tal tecnología ya se utiliza para bloquear pornografía infantil de Facebook y de otros servicios como YouTube, pero Facebook se había mostrado renuente a aplicarla a otros usos más difíciles de definir.
En la mayoría de los casos, Facebook sólo retira material objetable si los usuarios lo reportan primero.
Facebook y otras compañías de internet enfrentan una creciente presión gubernamental para identificar y prevenir la propagación de propaganda terrorista y de mensajes de reclutamiento en sus servicios.
Le también ► Señales para identifical un perfil falso
A inicios de junio, la primera ministra británica Theresa May hizo un llamado a los gobiernos a formar acuerdos internacionales para evitar la propagación del extremismo por internet. Algunas medidas propuestas responsabilizarían jurídicamente a las empresas por el material publicado en sus sitios.
La publicación en el blog de Facebook, realizada por Monika Bickert, directora de administración de política global; y por Brian Fishman, gerente de política contraterrorista, no mencionó específicamente el llamado de May, pero admitió que 'como consecuencia de los recientes ataques terroristas, la gente ha cuestionado el papel de las compañías de tecnología en el combate al terrorismo en internet'.
'Queremos responder esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar en el que los terroristas tengan una voz', escribieron.
Entre las técnicas de inteligencia artificial empleadas en este esfuerzo está el cotejo de imágenes, el cual compara fotos y videos que las personas publican en Facebook con imágenes o videos “conocidos” vinculados a terrorismo. Una correspondencia generalmente significq que o Facebook ya había removido el material o que éste terminó en una base de imágenes que la compañía comparte con Microsoft, Twitter y YouTube.
Facebook también desarrolla un sistema de “señales basadas en mensajes” que ya habían sido retirados por alabar o apoyar a organizaciones terroristas. Esas señales alimentaran a una máquina que posteriormente aprenderá a detectar publicaciones similares.
Le recomendamos leer ► Consejo básico para proteger su seguridad en Facebook
Bickert y Fishman dijeron que cuando Facebook recibe reportes de publicaciones “potencialmente terroristas”, los revisa al instante. Además, dijeron que en los raros casos en los que el sistema descubre evidencia de daño terrorista inminente, se informa rápidamente a las autoridades.
La tecnología todavía no llega al punto en la que es capaz de entender los matices del lenguaje y el contexto, por lo que seres humanos siguen involucrados en el proceso.
Facebook dice que emplea a más de 150 personas que trabajan “exclusivamente o principalmente enfocadas en contrarrestar el terrorismo como su máxima responsabilidad”. Entre esas personas hay expertos académicos sobre la lucha antiterrorista, ex fiscales, y antiguos miembros de fuerzas policiales, ingenieros y analistas, de acuerdo al blog de la empresa.