Los timos más sofisticados de la IA generativa / MIT

Comparte esta noticia:

La inteligencia artificial generativa ha incrementado la productividad de los criminales, facilitando fraudes como el phishing, estafas de audio deepfake y eludir controles de identidad. Investigadores advierten que estas tecnologías permiten a delincuentes operar internacionalmente con mayor eficacia, utilizando herramientas de IA para crear mensajes convincentes y suplantar identidades.

La inteligencia artificial ha supuesto un gran aumento de la productividad para los criminales. La IA generativa ofrece un nuevo y potente conjunto de herramientas que permite a los delincuentes trabajar de forma mucho más eficaz e internacional que nunca, afirma Vincenzo Ciancaglini, investigador principal de amenazas de la empresa de seguridad Trend Micro.

La mayoría de los delincuentes «no viven en una oscura guarida planeando cosas», afirma Ciancaglini. «La mayoría son gente normal que lleva a cabo actividades habituales que también requieren productividad». El año pasado vimos el auge y la caída de WormGPT, un modelo de lenguaje de IA construido sobre un modelo de código abierto y entrenado con datos relacionados con malware, que se creó para ayudar a los hackers y no tenía normas éticas ni restricciones. Pero el verano pasado, sus creadores anunciaron que cerraban el modelo después de que empezara a atraer la atención de los medios de comunicación. Desde entonces, la mayoría de los ciberdelincuentes han dejado de desarrollar sus propios modelos de IA. En su lugar, están optando por trucos con herramientas existentes que funcionan de forma fiable.

Esto se debe a que los delincuentes quieren una vida fácil y ganancias rápidas, explica Ciancaglini. Para que una nueva tecnología merezca la pena por los riesgos desconocidos asociados a su adopción —por ejemplo, un mayor riesgo de ser descubierto—, tiene que ser mejor y ofrecer mayores recompensas que las que utilizan actualmente. He aquí cinco formas en las que los delincuentes utilizan la IA en la actualidad.

Phishing: El mayor caso de uso de IA generativa entre los delincuentes en estos momentos es el phishing, que consiste en intentar engañar a la gente para que revele información sensible que pueda utilizarse con fines maliciosos, explica Mislav Balunović, investigador de seguridad de IA en ETH Zurich. Los investigadores han descubierto que el auge de ChatGPT ha ido acompañado de un enorme repunte en el número de correos electrónicos de phishing. Los servicios que generan spam, como GoMail Pro, tienen ChatGPT integrado, lo que permite a los usuarios delincuentes traducir o mejorar los mensajes enviados a las víctimas, afirma Ciancaglini.

Estafas de audio deepfake: La IA generativa ha permitido que el desarrollo de deepfakes dé un gran salto adelante, con imágenes, vídeos y audio sintéticos que parecen y suenan más realistas que nunca. Esto no ha pasado desapercibido para el hampa. A principios de este año, un empleado de Hong Kong perdió 25 millones de dólares (algo más de 23 millones de euros) en una estafa después de que unos ciberdelincuentes utilizaran un deepfake del director financiero de la empresa para convencerle de que transfiriera el dinero a la cuenta del estafador.

Eludir los controles de identidad: Otra forma en la que los delincuentes utilizan deepfakes es para eludir los sistemas de verificación de cliente. Los bancos y las bolsas de criptomonedas utilizan estos sistemas para verificar que sus clientes son personas reales. Exigen a los nuevos usuarios que se hagan una foto con un documento de identidad frente a una cámara. Pero los delincuentes han empezado a vender aplicaciones en plataformas como Telegram que permiten eludir este requisito.

Jailbreak-as-a-service: Si preguntas a la mayoría de los sistemas de IA cómo fabricar una bomba, no obtendrás una respuesta útil. Esto se debe a que las empresas de IA han establecido diversas salvaguardias para evitar que sus modelos arrojen información dañina o peligrosa. En lugar de crear sus propios modelos de IA sin estas salvaguardias, lo que resulta caro, laborioso y difícil, los ciberdelincuentes han empezado a adoptar una nueva tendencia: el jailbreak como servicio.

Doxxing y vigilancia: Los modelos lingüísticos de IA son una herramienta perfecta no solo para el phishing, sino también para el doxxing (revelar información privada e identificativa de alguien en línea), afirma Balunović. Esto se debe a que los modelos lingüísticos de IA se entrenan con grandes cantidades de datos de Internet, incluidos datos personales, y pueden deducir dónde, por ejemplo, podría estar ubicada una persona.

Noticia elaborada a partir del artículo original publicado en MIT Technology Review

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights