Facebook abre para todos su tecnología que detecta contenido nocivo

Es la primera vez que comparte una tecnología de comparación de fotos o videos en código abierto

Municipiosur.com
Agencias

La red social Facebook anunció este jueves el lanzamiento de dos tecnologías de código abierto para detectar videos y fotos similares o casi idénticos, enfocadas en el contenido nocivo, explotación infantil, propaganda terrorista y violencia gráfica.

A través de un comunicado, la firma de Palo Alto, California, indicó que dispondrá los algoritmos en código abierto en la plataforma GitHub «para que nuestros socios de la industria, desarrolladores pequeños y organizaciones sin fines de lucro, puedan utilizarlos».

En casos en los que otros desarrolladores ya cuenten con su propia tecnología, Facebook anunció que podrán usar los códigos como una capa adicional de defensa.

Esta es la primera vez que Facebook comparte una tecnología de comparación de fotos o videos en código abierto, es decir que cualquiera puede utilizarlo, copiarlo y modificarlo.

“En solo un año, hemos sido testigos de un aumento del 541 por ciento en la cantidad de videos de abuso sexual infantil reportados por la industria tecnológica a CyberTipline. Confiamos en que la generosa contribución de Facebook de esta tecnología de código abierto en última instancia conducirá a la identificación y rescate de más víctimas de abuso sexual infantil”, señaló el presidente del Centro Nacional de Niños Desaparecidos y Explotados.

La compañía también reveló que el esfuerzo hace parte de un compromiso de toda la industria para construir una internet más segura. En su comunicado revelaron que el anuncio acompaña a los proyectos de PhotoDNA, por parte de Microsoft en la lucha contra la explotación infantil, y el lanzamiento de la API de seguridad de contenido, hecho por Google.

La tecnología PDQ de Facebook permite crear una manera eficiente de almacenar archivos como ‘hashes’ digitales, que son algoritmos que resumen la información,
para determinar si dos archivos son iguales o similares, incluso sin la imagen o el video original.

Estos ‘hashes’ también se pueden compartir más fácilmente con otras compañías y organizaciones sin ánimo de lucro.

«Cuando identificamos propaganda terrorista en nuestras plataformas, la eliminamos y la analizamos utilizando una variedad de técnicas, incluidos los algoritmos que compartimos hoy», explica Facebook y detalla que después, esos ‘hashes’ se comparten con otros organismos a través de GIFCT «para que también puedan eliminar el mismo contenido si aparece en alguno de sus servicios».