mayo 18, 2024

BitCuco

¡Hola Mundo!

El nuevo desafío para la ciberseguridad: Malware generado por IA

Malware generado por IA

La IA autónoma ha salido ya de la mera ciencia ficción al campo de la realidad, lo que muchos analistas temen que pudiera convertirse en un arma de doble filo. Hasta el momento la inteligencia artificial está ayudando drásticamente a combatir las incidencias causadas por el malware y la ciberdelincuencia, pero puede también ayudar a crear y propagar programas maliciosos.

¿Cómo la IA puede volverse al “lado oscuro”?

Una IA a la ofensiva es capaz de generar vectores de ataques, contrarrestar defensas basadas en ella misma y lo que es peor, volverlas contra las organizaciones que debía proteger. Si bien no han ocurrido hasta el momento incidencias con ese nivel de gravedad, ya se han realizado pruebas de concepto donde es totalmente posible que ocurra este panorama de amenazas.

Analicemos a continuación, algunos ejemplos de cómo la IA puede provocar daños críticos.

Envenenamiento de datos

La IA funciona básicamente mediante la alimentación con datos. Si un usuario malintencionado logra manipular los algoritmos del aprendizaje automático y así envenenar todos los datos con los que se ha alimentado la IA, el sistema clasificaría las actividades maliciosas como benignas.

Si el proceso de envenenamiento no es detectado a tiempo, estaríamos ante una situación catastrófica. Ni hablar de lo que costaría recuperar los datos que no fueron corrompidos.

Phishing inteligente

Otro mecanismo que pueden emplear los hackers para comprometer la información financiera de un usuario objetivo es combinando el phishing con la IA. Para ello, los hackers obtienen una base de datos de clientes de algún banco, la cual, al combinarla con una herramienta de aprendizaje automatizado, pueden obtener tendencias y analíticas muy precisas de cada víctima.

Luego, las víctimas recibirían un email creado por IA, el cual simulará un correo bancario o una promoción que seguramente atraerá a la persona. Al hacer clic en ella, los ciberdelincuentes tratarán de obtener los datos personales, los cuales, generalmente, también corresponden a sus datos bancarios.

Propagar Malware a través de videotutoriales

Una táctica que cada vez emplean más los ciberdelincuentes es el de generar un falso videotutorial mediante inteligencia artificial y subirlo a plataformas confiables como YouTube. Generalmente, estos “tutoriales” suelen ser de programas muy usados como lo es el Photoshop, Office y similares.

En el vídeo se insta al usuario a descargar de forma gratuita el programa a través de un enlace que suele colocarse en la descripción del perfil. Al hacer clic el usuario, descarga automáticamente un malware el cual obtiene las credenciales de inicio del sistema. 

Spear phishing impulsado por IA

Los ciberdelincuentes pueden aprovechar la IA para escanear cientos de miles de perfiles en redes sociales y encontrar víctimas objetivos. Posteriormente, emplearía la IA para que interactúe con las personas y así, conseguir que esta instale un backdoor con el que el ciberdelincuente tendría acceso al dispositivo.

Es importante destacar que este tipo de phishing de por sí es complicado de detectar, más aún lo será si este viene impulsado por la IA.

Crear herramientas maliciosas con la IA

Dada la naturaleza autónoma de la IA, esta tecnología es capaz de adaptarse y actuar por sí misma en el entorno donde funciona. Esto ha permitido avanzar de forma sustancial en la detección temprana del programa malicioso y así prevenir a tiempo situaciones catastróficas.

Pero del mismo modo, la IA puede actuar de forma negativa y como prueba de ello podemos citar el experimento llamado ChaosGPT. Esta herramienta basada en el proyecto de Auto-GPT demostró que la IA también puede actuar de forma negativa cuando se le ordenó “destruir a la humanidad”.

ChaosGPT actúo de la siguiente manera tras recibir dicha petición: accedió a la internet, indagó varios modos sobre cómo se puede destruir la humanidad y basándose en las analíticas que generó, reclutó otras herramientas de IA para que ayudasen a cumplir la orden y finalmente indicó todo su plan de destrucción. Esto nos indica que la IA también es capaz de crear herramientas para propagar malware y que este no sea detectado.

Ransomware impulsado por la IA

Un Software malicioso impulsado por la IA tiene la capacidad de ocultarse entre una gran cantidad de datos inofensivos y estar a la espera de que la víctima objetivo sea quien lo active. Esto hace que sea prácticamente imposible hacerle ingeniería inversa, pues el software malicioso solo se activará si se cumplen ciertas condiciones.

Un ejemplo de esto lo tenemos con la prueba de concepto de malware avanzado realizado por IBM a la cual llamaron DeepLocker. La prueba consistió básicamente en ocultar un programa malicioso en un dispositivo y, usando la IA, hacerlo indetectable y que solo se liberase la carga útil dañina con la víctima objetivo.

En la prueba, el malware (que se trató de un ransomware) se liberó exitosamente cuando la víctima objetivo dirigió su mirada a la cámara web de su ordenador portátil. Esto demuestra que los ciberdelincuentes pueden aprovechar la IA para propagar malware solo en condiciones específicas y con víctimas determinadas. Afortunadamente, el DeepLocker aún no ha llegado al entorno de consumo masivo, pero es solo cuestión de tiempo para que algún hacker lo desarrolle.

DeepFake

Este tipo de ataques se están llevando a cabo y es básicamente la combinación de la ingeniería social con la IA. Las capacidades que tiene la inteligencia artificial de generar imágenes, voces y avatares están siendo utilizados por personas maliciosas para hacerse pasar, generalmente, por directivos y así cometer estafas o perjudicar a otras personas.

Han sido varios los casos de estafas por DeepFake, por ejemplo, en el 2019 una empresa reconocida de Reino Unido transfirió unos fondos que supuestamente había solicitado el CEO de la compañía a un “nuevo proveedor”. También tenemos casos donde suplantan a famosos como Elon Musk, instando a la compra de criptomonedas.

De momento este tipo de ataque emplea la IA generativa y no impulsa malware de forma autónoma. Sin embargo, esta situación puede cambiar en un corto plazo.

Conclusiones – Malware generado por IA

De momento podemos considerar a la IA como una “bola gris”, ya que si bien, puede suponer un riesgo enorme para la ciberseguridad, de momento aún requiere mucha intervención humana y esto la ha mantenido a raya. No obstante, las cosas pueden cambiar a medida que avance el aprendizaje automatizado.