Cinco tácticas que los ciberdelincuentes utilizan para estafarte

La inteligencia artificial es una herramienta de vanguardia que busca facilitar procesos al ser humano. Sin embargo, el cibercrimen se ha aprovechado de ello para sacar a relucir sus ataques y acciones maliciosas, afirma la empresa de ciberseguridad ESET, que destaca cinco tácticas con las que se utiliza esta generación para vulnerar a los usuarios.

“Hoy vemos las implicaciones que los actores maliciosos le están dando a la IA y cómo pueden tomar prestados datos confidenciales y descargar ganancias monetarias. »

Para advertir a los usuarios sobre nuevas prácticas maliciosas, los expertos de la empresa de seguridad informática están investigando cómo los ciberdelincuentes utilizan inteligencia sintética para sus fines delictivos.

Con la aparición de chatbots como ChatGPT, se ha observado un aumento en los correos electrónicos de phishing, según investigadores de inteligencia artificial de ETH Zurich.

Los delincuentes han encontrado en la inteligencia sintética un mejor amigo para engañar a otras personas para que revelen información confidencial, incluso empujándolas a solicitar un préstamo bancario, según los especialistas de ESET.

Con instalaciones como GoMail Pro, que tiene funciones ChatGPT, los ciberatacantes mejoran el contenido de los mensajes que los delincuentes envían a sus víctimas sin que OpenAI lo detecte o rastree.

Otra función de la inteligencia sintética es traducir mensajes y comunicaciones entre equipos delincuentes a escala global, hasta el punto de coordinar operaciones a gran escala en otros países, según un artículo del Instituto Tecnológico de Massachusetts (MIT).

La inteligencia artificial ha dificultado la distinción entre un símbolo genuino y un símbolo creado con esta tecnología, advierte ESET. Además, existen amenazas de estafas de audio.

Solo se necesitan unos segundos para capturar la voz de una persona, ya sea un vídeo subido a Instagram o TikTok, por ejemplo, para producir algo peligrosamente convincente.

“La gente quiere ser consciente de que esas cosas ahora son imaginables y que el príncipe nigeriano no habla un inglés malo. De hecho, posiblemente te llamen con otra voz y esto puede ponerte en una situación muy estresante.

Un ejemplo de esto es la estafa del trabajador que perdió 24 millones de dólares luego de una reunión con quien pretendía ser el director financiero de la empresa y le pidió el traslado de esta gigantesca suma de dinero.

Los ciberdelincuentes utilizan inteligencia sintética para eludir los controles que determinan la identidad de una persona, advierte ESET.

El mecanismo con el que funcionan es a través de un documento de identidad, falso o robado, en el que se superpone un símbolo al rostro de la persona genuina, como si de un filtro de Instagram se tratara.

Los expertos advierten que, aunque esta práctica se encuentra últimamente en su estado fundamental, es un método que puede seguir mejorando y ampliando su aplicación.

Doxing consiste en publicar información no pública sobre otras personas con la intención de intimidar, extorsionar o, de otra manera, dañar. Esta es una práctica establecida en 2020 con los ataques de ransomware, pero con inteligencia sintética se ha optimizado.

En el caso del ransomware, los ciberdelincuentes secuestran todos los archivos y toman prestados los datos de sus víctimas para generar presión sobre las organizaciones, amenazando con publicar todos estos datos personales si no se paga el rescate.

Los ciberdelincuentes utilizan la IA con cantidades gigantescas de datos, como datos no públicos, para inferir dónde podría estar un usuario.

«La regla es simple: cuantos más datos hay sobre nosotros en Internet, más vulnerables somos a esta práctica», señalan los especialistas de ESET.

Gracias a ChatGPT, es posible inferir información delicada, como el origen étnico o la ubicación, durante un intercambio verbal con el chatbot, por lo que el investigador de seguridad Mislay Balaunović pide no compartir ningún conocimiento con esta tecnología.

El cibercrimen ha optado por utilizar servicios de jailbreak, de crear sus propios modelos de inteligencia sintética, ahorrando tiempo y dinero.

«El jailbreak es el procedimiento de explotar las vulnerabilidades en un dispositivo electrónico bloqueado para instalar software distinto al que el fabricante creó en el dispositivo», según Kaspersky.

Los ciberatacantes pueden modificar la fórmula de IA dirigida y generar respuestas relacionadas con la generación de contenido para correos electrónicos maliciosos o escribir código para malware, evitando cualquier limitación.

ESET destaca que «la tecnología no es ni mala», añadiendo la inteligencia sintética. Sin embargo, subraya que todo depende de las intenciones con las que se utiliza.

«Su escala es tal que interviene en otros espacios de valor. El efecto de la IA en la educación puede ser más que positivo e incluso tiene implicaciones muy importantes en un ámbito tan importante como el de la medicina. »

Sin embargo, los expertos señalan que es inevitable comunicar sobre lo que podría suceder si la generación cae en manos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *