0 0
Tiempo de lectura:2 Minutos, 44 Segundos

Buenos Aires, 08 de abril del 2024. El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) advirtió sobre el avance de los deepfakes. Se trata de contenido multimedia sintético generado por Inteligencia Artificial (IA) que se encuentra disponible a través de aplicaciones como FaceApp o Deep Face Lab, entre otras. La tecnología deepfake puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas defraudes en línea, cuyas víctimas suelen ser las corporaciones empresariales.

En el marco de la presentación del libro “Ciberfraudes: Criptoactivos y Blockchain” que forma parte de una colección de materiales sobre el tema a cargo de la fiscal Daniela Dupuy, directora de OCEDIC, se profundizó acerca de esta modalidad que impacta a nivel internacional, debido a la transnacionalidad de la comisión de estas conductas delictivas, cuyos autores pueden operar desde cualquier parte del mundo.

“Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables” explicó Dupuy.

Un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes resalta su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.

El uso de chatbots de IA, como CatGPTh, también puede fomentar las actividades fraudulentas, pudiendo ayudar a los posibles estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma). Es decir que estos modelos de lenguaje de
gran tamaño pueden crear mensajes de todo tipo, con una excelente gramática, haciéndolos pasar como verdaderos y disminuyendo la posibilidad de identificar a los
sospechosos.

A modo de ejemplo, caben mencionar casos como el del gerente de una empresa que transfirió 25 millones de dólares a varias cuentas controladas por los estafadores, creyendo que la voz de su interlocutor, que le pedía que efectuara las transferencias, pertenecía a su jefe. O, el caso del estafador que mantuvo chats de videos con la empleada de una empresa, indicándole el paso a paso de una transferencia millonaria a una compañía en Japón, pero aquellas conversaciones fueron en realidad manipuladas utilizando clips de videos de acceso público del verdadero jefe de la víctima.

En cuanto a la prevención de las estafas en línea que usan imágenes, videos y audios generados por IA, se ha detectado que los mecanismos para identificarlos suelen ir por detrás de las herramientas que las produce.

“Desde OCEDIC trabajamos desde la amplificación y la prevención buscando formar e informar a los especialistas y a los ciudadanos. En ese sentido, resulta fundamental que
los usuarios analicen la situación antes de responder cualquier mensaje que reciban a
través de las TICS y, por otro lado, incluir protocolos dentro de los Programas de
Compliance corporativo, que posean una doble verificación de las solicitudes de acciones
potencialmente perjudiciales, como transferencias o cambios en la información de las
cuentas bancarias de los proveedores”, culminó Dupuy.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%