08/07/2025
Deepfakes, voces clonadas, estafas automatizadas y suplantación de identidad: la inteligencia artificial ya no solo predice palabras o genera imágenes, ahora también comete delitos. En Argentina y el mundo, crecen los casos donde los ciberdelincuentes usan IA para engañar, manipular y robar. El problema: la tecnología avanza más rápido que las leyes que deberían regularla.
La inteligencia artificial ha sido una de las innovaciones más disruptivas de los últimos años. Nos asiste en trabajos, genera contenido, ayuda en la medicina y optimiza industrias. Pero también ha abierto la puerta a una nueva era del crimen. Hoy, los delincuentes ya no necesitan fuerza bruta: les alcanza con un algoritmo.
En Argentina, como en muchos otros países, se han reportado casos donde las víctimas recibieron llamadas telefónicas con la voz exacta de un familiar pidiendo ayuda. Era una voz generada por IA, basada en pocos segundos de audio tomados de redes sociales. Y lo peor: es solo el principio.
La IA puede escribir, hablar, generar imágenes, videos y hasta crear versiones falsas pero convincentes de una persona. Esto ha transformado al clásico "cuento del tío" en una versión 4.0: más sofisticada, más convincente y más peligrosa.
Una de las herramientas más utilizadas por los estafadores digitales son los deepfakes. Con ellos, pueden crear videos hiperrealistas en los que una persona parece estar diciendo o haciendo cosas que nunca ocurrieron. Esto no solo sirve para extorsionar, sino también para desinformar, atacar reputaciones o incluso manipular pruebas judiciales.
La clonación de voz también ha ganado terreno. Existen plataformas capaces de replicar la voz de cualquier persona con solo unos segundos de grabación. Una vez logrado, el delincuente puede hacer llamadas falsas, pedir transferencias, manipular emociones o engañar a sistemas de seguridad que usan reconocimiento por voz.
Lo más alarmante es que muchas de estas herramientas están al alcance de cualquiera. No hace falta ser un experto en programación: muchas IAs están disponibles online, son gratuitas o de bajo costo, y permiten hacer cosas que hace apenas 5 años eran impensadas fuera de un laboratorio.
Hoy, una persona sin conocimientos técnicos puede entrenar un chatbot con frases personales de una víctima y simular una conversación creíble. También puede usar una imagen de perfil, una foto pública o un audio de TikTok para generar una identidad falsa y comenzar una estafa. Todo desde su casa, y sin dejar casi rastro.
En este escenario, la justicia se enfrenta a un nuevo dilema: ¿cómo se prueba un delito cometido por una máquina? ¿Cómo se legisla sobre algo que cambia cada mes? ¿Y cómo se determina la responsabilidad penal cuando la herramienta utilizada es una IA autónoma o de código abierto?
En muchos países -incluida Argentina- no existen leyes específicas que regulen los delitos cometidos con o por medio de inteligencia artificial. Las estafas tradicionales están tipificadas, pero ¿qué pasa con un deepfake que arruina la reputación de alguien? ¿O con un video manipulado que se viraliza y genera daños irreparables?
Además, la velocidad del avance tecnológico deja a jueces, fiscales y fuerzas de seguridad con herramientas legales y técnicas obsoletas.
Expertos en ciberseguridad afirman que no hay vuelta atrás. La IA llegó para quedarse, y su uso -legítimo o no- será cada vez más común. Por eso, proponen una combinación de prevención, legislación y educación digital.
Es urgente que los países desarrollen normativas específicas sobre el uso de IA en contextos criminales, que las plataformas tecnológicas sean obligadas a implementar medidas de autenticidad y detección de deepfakes, y que la ciudadanía sea educada para detectar posibles fraudes digitales.
También se habla de crear bases de datos internacionales para detectar voces clonadas y videos manipulados, o de sistemas que alerten automáticamente si una imagen fue generada por IA. Pero todo eso aún está en fase de idea.
Lo que antes parecía parte de una película de ciencia ficción ahora es una noticia real. Las herramientas que usamos para crear, entretenernos o resolver problemas también están siendo utilizadas para mentir, estafar y dañar. Y lo hacen con tal realismo que muchas veces la víctima ni siquiera se da cuenta.
La inteligencia artificial no es buena ni mala en sí misma. Todo depende de cómo se use. Y hoy, muchos la están usando mal. Lo preocupante es que, hasta ahora, ni la justicia ni la sociedad parecen estar preparadas para detenerlo.
COMPARTE TU OPINION | DEJANOS UN COMENTARIO
Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales.
04/07/2025
Bitcoin
04/07/2025