La IA se está usando para extorsión y acoso sexual: FBI
Las autoridades estadounidenses alertaron que los delincuentes recurren a esta tecnología para crear imágenes sexualmente explícitas con el fin de intimidar a las víctimas.
La Oficina Federal de Investigaciones (FBI) advirtió a los estadounidenses que los delincuentes utilizan cada vez más la inteligencia artificial para crear imágenes sexualmente explícitas con el fin de intimidar y extorsionar a las víctimas.
En una alerta que circuló esta semana, el FBI dijo que recientemente había observado un aumento en las víctimas de extorsión que dijeron que habían sido atacadas usando versiones manipuladas de imágenes inocentes tomadas de publicaciones en línea, mensajes privados o chats de video.
“Las fotos luego son enviadas directamente a las víctimas por actores maliciosos para extorsión o acoso sexual”, dijo la advertencia.
“Una vez que circula, las víctimas pueden enfrentar problemas importantes para evitar el intercambio continuo del contenido manipulado o la eliminación de internet”.
El FBI dijo que las imágenes parecían “reales” y que, en algunos casos hubo niños que fueron atacados.
Te puede interesar > ‘Da asco’: Rosalía responde a rapero que difundió fotos falsas sexualizándola
El FBI no entró en detalles sobre los programas que se utilizan para generar imágenes sexuales, pero señaló que los avances tecnológicos “mejoraban continuamente la calidad, la personalización y la accesibilidad de la creación de contenido habilitada por inteligencia artificial (IA)”.
La oficina no respondió a consultas en busca de detalles sobre el fenómeno.
La manipulación de imágenes inocuas para crear imágenes sexualmente explícitas es casi tan antigua como la fotografía misma, pero el lanzamiento de herramientas de IA de código abierto ha hecho que el proceso sea más fácil que nunca.
Los resultados a menudo son indistinguibles de las fotografías de la vida real y en los últimos años han surgido varios sitios web y canales de redes sociales que se especializan en la creación e intercambio de imágenes sexuales habilitadas por IA.
Reuters