En el último año, la generación de contenido falso o
deepfakes ha experimentado un gran desarrollo. Ya no solo se trata de fotos y videos alterados con Inteligencia Artificial (IA), sino de una tecnología mucho más madura que ahora está apuntando a la falsificación de voz, también conocida como
deepvoice. Los expertos de Kaspersky alertan que estas innovaciones ya son utilizadas para evadir controles de seguridad, por ejemplo, aprovechando datos biométricos vulnerados; así como para manipular información en línea y cometer otros ataques cibernéticos. Esto ha provocado el crecimiento del mercado negro de los
deepfakes, donde el costo del contenido puede oscilar entre $300 a $20,000 dólares por minuto, dependiendo su calidad y complejidad.
De acuerdo con
Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, los avances en la Inteligencia Artificial Generativa y el aprendizaje automático han propiciado la creación de contenido multimedia falso cada vez más realista, ya que son tecnologías con la capacidad de aprender a partir de datos no estructurados, como el rostro o los movimientos humanos. Para crear
deepfakes, la red generativa puede entrenarse con fotos reales de una persona y así generar un número infinito de imágenes convincentes de ella para integrarlas en un video.
Estas mismas técnicas de aprendizaje automático pueden emplearse para desarrollar contenidos de voz artificial y, mientras la tecnología siga expandiéndose, podría ser explotada por los estafadores para crear contenidos engañosos de audio aún más accesibles; lamentablemente, las personas cuyas muestras de voz o video están disponibles en Internet, como celebridades y figuras públicas, pueden ser más propensas a ser víctimas de suplantación. Ya que se prevé que su evolución continúe, los
deepfakes ya
se han catalogado como uno de los usos más preocupantes de la Inteligencia Artificial.
Y es que, mientras se han encontrado beneficios para ciertos campos, por ejemplo el de marketing, con nuevas herramientas de IA
como la de TikTok, que permitirá a marcas y creadores generar avatares de personas reales para producir anuncios en múltiples idiomas, el uso de
deepfakes con propósitos maliciosos ha perjudicado a otros sectores, incluido el bancario. Por ejemplo, la suplantación de identidad con
deepfakes ha jugado un papel importante en fraudes financieros con tácticas y aplicaciones capaces de eludir los mecanismos de verificación biométrica, empleados ya por distintas entidades financieras, permitiendo a los atacantes obtener acceso no autorizado a cuentas bancarias e información confidencial.
A pesar de disponer abiertamente de herramientas de creación de
deepfakes, los delincuentes buscan creadores que puedan producir contenido realista, de alta calidad e incluso en tiempo real, dado que simular movimientos, expresiones faciales o voces de manera fluida y natural es un reto para los algoritmos que deben capturar y reproducir detalles muy específicos. Por eso, existe un mercado específico de
deepfakes en la
Darknet, donde criminales ofrecen servicios para crear contenido falso y hasta tutoriales con consejos sobre cómo seleccionar el material de origen o cómo intercambiar rostros y voces para generar una falsificación convincente.
La experta explica que la demanda de
deepfakes en este mercado es tan alta que supera la oferta existente, por lo que en el futuro cercano es probable que se registre un aumento aún más significativo en los incidentes relacionados con contenido falso de alta calidad. Esto representa un verdadero riesgo para el panorama de ciberseguridad pues,
de acuerdo a cifras de Kaspersky, más de la mitad de los usuarios en México (72%) no sabe qué es un
deepfake.
“La exposición de datos personales sensibles en línea, como imágenes del rostro o audios, implica un reto significativo para proteger esta información contra accesos no autorizados y un uso malintencionado para crear contenido falso o suplantar la identidad de otras personas. Esto puede causar daño material o monetario, así como un impacto psicológico y de reputación para las víctimas. Por eso, es esencial establecer pautas y estándares claros para la creación y el uso de deepfakes, garantizando la transparencia y responsabilidad en su implementación. No hay que temer a la IA, es una herramienta con un gran potencial, pero depende del ser humano hacer un uso ético de ella”, concluyó
Isabel Manjarrez.Kaspersky comparte algunas características que pueden ayudar a identificar un
deepfake:
- La fuente del contenido y la información que comparte son sospechosas. Actúa con cautela ante correos electrónicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que veas o recibas, especialmente si comunican información extraña o ilógica. Confírmala en fuentes de información oficiales.
- Las condiciones e iluminación en un video son inconsistentes. Desconfía si detectas anomalías en el fondo del video. Evalúa si la iluminación del rostro corresponde con el entorno, las incoherencias en la iluminación pueden indicar manipulación.
- Los movimientos faciales y corporales son inusuales. Sospecha si las expresiones del rostro o cuerpo son poco naturales, como un parpadeo extraño o la ausencia total de este. Comprueba que las palabras correspondan con los movimientos de los labios y que las expresiones faciales sean apropiadas para el contexto del video.
- Los audios falsos pueden tener distorsiones de voz. Presta atención a la calidad del sonido. Sospecha si identificas un tono monótono antinatural en la voz, si ésta es ininteligible o si hay ruidos extraños de fondo.
- Para mantenerse protegido, es importante informarnos. Sé consciente de la existencia de los deepfakes y edúcate sobre las tecnologías de manipulación digital. Cuanto más consciente seas, mejor podrás detectar posibles fraudes.
- Utiliza soluciones como Kaspersky Premium, que protegen contra todo tipo de amenazas, conocidas y desconocidas en la navegación en Internet, tanto en computadoras como en dispositivos móviles.
Para saber más sobre nuevas ciberamenazas, visita el
blog de Kaspersky.
No hay comentarios:
Publicar un comentario