En una serie de cambios importantes en el funcionamiento de la plataforma, Pornhub anunció el martes 8 de diciembre que prohibiría las descargas, restringiría las cargas a usuarios verificados y ampliaría su proceso de moderación de contenido, medidas que los activistas contra las imágenes no consensuales y los actores pornográficos han estado pidiéndole tomar a la plataforma desde hace ya algún tiempo.
Este es un gran cambio en la forma previa de trabajar de Pornhub, antes cualquier persona con una cuenta gratuita podía subir contenido sin ninguna verificación, e imágenes protegidas por derechos de autor o abusivas llenaban el sitio sin ningún tipo de control hasta que algún titular de los derechos se quejaba ante la plataforma.
«Con efecto inmediato, solo los asociados de contenido y las personas dentro del Programa Modelo podrán cargar contenido en Pornhub», dice un comunicado emitido por Pornhub. «En el nuevo año, implementaremos un proceso de verificación para que cualquier usuario pueda cargar contenido al completar con éxito un protocolo de identificación».
Como parte de su ampliación del proceso de moderación, Pornhub dice que empleará un «Equipo Rojo» recientemente establecido que se dedicará a auditar la plataforma en busca de material potencialmente ilegal. Esto se suma al uso por parte de Pornhub de CSAI Match, la tecnología patentada de YouTube para combatir las imágenes de abuso sexual infantil; Content Safety API, la herramienta de inteligencia artificial de Google para detectar imágenes ilegales; y PhotoDNA, una tecnología utilizada por Google, Facebook y otros para detectar automáticamente imágenes de abuso sexual infantil.
Estas son tecnologías que muchos otros gigantes tecnológicos como Pornhub usan, y los expertos le dijeron a VICE en febrero que usar las tecnologías de huellas dactilares en todo su potencial mejoraría enormemente las vidas de las víctimas de uso de imágenes abusivas, así como las de los propietarios de contenido cuyos materiales protegidos por derechos de autor se encuentran por todo Pornhub. En el momento de nuestro informe e investigación sobre las prácticas de moderación de Pornhub, la compañía no hizo comentarios acerca de cómo, o si, moderaba activamente las imágenes abusivas.
«En abril de 2020, contratamos a expertos externos para analizar de forma independiente nuestro programa de cumplimiento regulatorio y hacer recomendaciones que se enfocaran en eliminar todo el contenido ilegal y lograr un programa que fuera ‘el mejor en su clase’ y estableciera el estándar para la industria de la tecnología», dijo Pornhub en su anuncio del 8 de diciembre.
Los cambios también incluyen el lanzamiento de un «Programa Trusted Flagger», en el que 40 organizaciones sin fines de lucro para la seguridad infantil y de internet en todo el mundo «tienen una línea directa de acceso a nuestro equipo de moderación, y cualquier contenido identificado por un Trusted Flagger será inmediatamente inabilitado», según sus políticas. En los Estados Unidos esas organizaciones son la Cyber Civil Rights Initiative (CCRI) y el National Center for Missing & Exploited Children.
«En CCRI nos sentimos alentados por los cambios que Pornhub anunció hoy, que incluyen medidas que muchos activistas que trabajan en los espacios NCP y CSAM han buscado que se adopten durante años», le dijo a VICE Mary Anne Franks, presidenta de Cyber Civil Rights Initiative. «Una de las posiciones centrales de CCRI es que los productores, distribuidores y facilitadores de material sexualmente explícito tienen la responsabilidad de garantizar que todas las personas representadas en dicho contenido no solo sean adultos, sino adultos que hayan dado su consentimiento pleno. Nos complace que Pornhub haya adoptado varias de nuestras recomendaciones para subrayar la importancia del consentimiento no solo como una condición previa para subir material sexualmente explícito, sino como un valor afirmativo en las dinámicas sexuales. Por supuesto, queda por ver cuán efectivas serán estas políticas, pero celebramos estos importantes pasos iniciales hacia la toma de responsabilidad en una industria que ha sobresalido por evadirla».
Carrie Goldberg, abogada y miembro de la junta de CCRI, le dijo a VICE que «no es suficiente» que las empresas se autoregulen y moderen el contenido que suben sus usuarios. «Necesitamos un sistema legal que tenga en cuenta el derecho de las víctimas a obtener justicia cuando son explotadas en estas plataformas: derecho legal a exigir la eliminación del contenido, la indemnización por los daños y su dolor», dijo. «Las plataformas que venden pornografía infantil y otro contenido abusivo creen que la Sección 230 de la Ley de Decencia en las Comunicaciones las exime de responsabilidad. La moderación responsable solo aborda una parte del problema. La falta de derechos de las víctimas en nuestro sistema legal sigue sin resolverse. Estas empresas deben responderle a las víctimas. No sólo al público en general».
Estos cambios ocurren después de que el 4 de diciembre el New York Times publicara un artículo detallando las experiencias de víctimas de abuso infantil cuyo contenido fue subido a Pornhub, así como de una campaña en curso por parte de una organización religiosa conservadora para cerrar toda la plataforma, un resultado que dicen las trabajadoras sexuales es un intento engañoso, si no es que malicioso, de dañar sus medios de subsistencia. El lunes 7 de diciembre, Visa y Mastercard dijeron que investigarían las acusaciones y su relación con MindGeek, la empresa matriz de Pornhub.
FUENTE: Vice