04/09/2024
La generación de contenido falso o deepfakes experimentó un gran desarrollo en los últimos años. Ya no solo se trata de fotos y videos alterados con inteligencia artificial, sino de una tecnología mucho más madura que ahora apunta a la falsificación de voz, también conocida como deepvoice. Sin embargo, este increíble avance, que permite crear contenido audiovisual y sonoro altamente realista, ya fue adoptado por ciberdelincuentes para llevar a cabo fraudes, suplantaciones de identidad y espionaje corporativo.
Expertos de
Kaspersky alertaron que estas innovaciones también utilizadas para evadir
controles de seguridad, por ejemplo, para aprovechar vulnerar accesos por datos
biométricos, así como para manipular información y cometer otros ciberataques. Diferentes investigaciones
revelaron que el uso de deepfakes en ciberataques aumentó un 13% en comparación
con 2023. Esto significa que, cada vez más, los ciberdelincuentes se valen de
esta tecnología para infiltrarse en videoconferencias, especialmente en
entornos corporativos donde se manejan datos sensibles.
Para crear estos
deepfakes, la inteligencia artificial generativa puede entrenarse con fotos
reales de una persona y así generar un número infinito de imágenes convincentes
de ella para integrarlas en un video.
"Los avances en esta
innovación y el aprendizaje automático propician la creación de contenido
multimedia falso cada vez más realista, ya que son tecnologías con la capacidad
de aprender a partir de datos no estructurados, como el rostro o los
movimientos humanos", explicó en un comunicado enviado a TN Tecno Isabel
Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y
Análisis de Kaspersky
La manipulación de
contenido audiovisual mediante deepfakes no solo se limita a la suplantación de
identidad, sino que también se usa en campañas de desinformación y en la
creación de contenido engañoso que puede dañar la reputación de individuos y
organizaciones. Por ejemplo, se reportaron varios casos en los que se crean
videos falsos de figuras públicas, con el objetivo de difundir información
errónea o comprometedora.
Este tipo de ataque
se ha vuelto particularmente atractivo para los hackers, quienes pueden hacerse
pasar por empleados o directivos de una empresa para obtener información
valiosa o realizar fraudes financieros.
Estas mismas
técnicas de aprendizaje automático pueden emplearse para desarrollar contenidos
de voz artificial y, mientras la tecnología siga expandiéndose, podría ser
explotada por los estafadores para crear contenidos engañosos de audio aún más
accesibles.
Las víctimas de los deepfakes
En principio, las
personas cuyas muestras de voz o video están disponibles en Internet, como
celebridades y figuras públicas, son las más propensas a ser víctimas de
suplantación.
Por otra parte, el
uso de deepfakes con propósitos maliciosos también perjudica a otros individuos
o sectores, como el sistema bancario, y ya juega un papel importante en fraudes
financieros con tácticas y aplicaciones capaces de eludir los mecanismos de
verificación biométrica. Así, permite a ciberdelincuentes obtener acceso no
autorizado a cuentas bancarias e información confidencial.
El mercado negro de los deepfakes
A pesar de disponer
abiertamente de herramientas de creación de deepfakes, los delincuentes buscan
creadores que puedan producir contenido realista, de alta calidad e incluso en
tiempo real, dado que simular movimientos, expresiones faciales o voces de
manera fluida y natural es un reto para los algoritmos que deben capturar y
reproducir detalles muy específicos.
Por eso, existe un mercado
específico de deepfakes en la dark web, donde criminales ofrecen servicios para
crear contenido falso y hasta tutoriales con consejos sobre cómo seleccionar el
material de origen o cómo intercambiar caras y voces para generar una
falsificación convincente.
La experta explicó
que la demanda de estos contenidos en este mercado es tan alta que supera la
oferta existente, por lo que en el futuro cercano es probable que se registre
un aumento todavía más significativo en los incidentes relacionados con contenido
falso de alta calidad. Esto representa un verdadero riesgo para el panorama de
ciberseguridad: de acuerdo a cifras de Kaspersky, más de la mitad de los
usuarios en América Latina no sabe qué es un deepfake. Así lo afirman el 75% de
los peruanos, el 72% de los chilenos y mexicanos, el 67% de argentinos, 66% de
brasileros y 63% de colombianos.
"La exposición de
datos personales sensibles en línea, como imágenes del rostro o audios, implica
un reto significativo para proteger esta información contra accesos no
autorizados y un uso malintencionado para crear contenido falso o suplantar la
identidad de otras personas. Esto puede causar daño material o monetario, así
como un impacto psicológico y de reputación para las víctimas", aseguró Isabel
Manjarrez. Y agregó: "Por eso, es esencial establecer pautas y estándares
claros para la creación y el uso de deepfakes, garantizando la transparencia y
responsabilidad en su implementación. No hay que temer a la IA, es una
herramienta con un gran potencial, pero depende del ser humano hacer un uso
ético de ella".
Cómo identificar un deepfake
Los especialistas de Kaspersky compartieron
con TN Tecno algunas claves para a identificar un deepfake:
·
La
fuente del contenido y la información que comparte son sospechosas: prestá
atención a correos electrónicos, mensajes de texto o voz, llamadas, videos u
otro contenido multimedia que veas o recibas, especialmente si comunican
información extraña o ilógica. Confirmala en fuentes de información oficiales.
·
Las
condiciones e iluminación en un video son inconsistentes: desconfiá si detectás
anomalías en el fondo del video. Evaluá si la iluminación de la cara de la
persona corresponde con el entorno, las incoherencias en la iluminación pueden
indicar manipulación.
·
Los
movimientos faciales y corporales son inusuales: sospechá si las expresiones de
la cara o cuerpo de la persona del video son poco naturales, como un parpadeo
extraño. Comprobá que las palabras correspondan con los movimientos de los
labios y que las expresiones faciales sean apropiadas para el contexto del
video.
·
Los
audios falsos pueden tener distorsiones de voz: prestá atención a la calidad
del sonido. Sospechá si identificás un tono monótono y antinatural en la voz, o
si hay ruidos extraños de fondo.
·
Para
mantenerse protegido, es importante informarnos: conocer sobre la existencia de
los deepfakes y educarse sobre las tecnologías de manipulación digital. Cuanto
más consciente seas, mejor podrás detectar posibles fraudes.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
04/12/2024
Inteligencia Artificial