Miles de datos son arrojados día a día por equipos electrónicos personales o de las compañías, llamados metadatos, que hoy están siendo recopilados por herramientas de inteligencia artificial para después crear ciberataques dirigidos que vulneran fácilmente a sus víctimas.
Al enviar una foto o subirla a una red social, al escanear una copia en una impresora, crear un archivo PDF o de Word y compartirlo, o hasta el enviar un email, se puede saber de dónde vino, qué equipo se usó, la hora, la direción IP, el software de creación y más, y eso hoy en día es una mina de oro en información para los delincuentes, quienes con un motor de IA construyen un programa malicioso que puede explotar vulnerabilidades en sistemas en esas versiones, y pocos lo saben.
Edson Villar, líder de Consultoría en Riesgo Cibernético para LAC en Marsh, afirma que gracias a ello hay una optimización de los ciberataques.
Si yo tengo la última herramienta de antimalware, un motor de inteligencia artificial utilizado para mal puede analizar cuáles son sus patrones, y solicitarle que construya un software malicioso que me permita evitar o superar sus capacidades. Vamos a ver que seguramente el malware va a tener patrones mucho más difíciles de detectar, por ejemplo, que pueda mutar su código o su modus operandi de máquina a máquina mientras se reproduce por la red para evitar ser detectado”.
Para el experto, la falta de políticas estrictas de seguridad de la información que publican los trabajadores hacia el exterior, como son los metadatos, está poniendo en jaque a la seguridad de la empresa, pues ahí puede iniciar el phishing. “Esto se complica aún más en el tema personal, del usuario final”.
Es un reto evitar no entregar la metadata”.
LOS DEEP FAKES, OTRO FACTOR
En 2019 se registró el primer gran ciberataque en Europa, usando las técnicas de suplantación de voz o video con inteligencia artificial, conocidas como Deep Fake.
Ocurrió hace cuatro años cuando se suplanta la voz de un gerente de una organización europea y se estafó a clientes y trabajadores. Hoy en día estamos viendo que esto está siendo cada vez más utilizado y las herramientas para crear los deep fakes son más precisas y creíbles, y la gente está siendo engañada”, dijo Villar.
Incluso, comentó el especialista en ciberseguridad, hace unos días se dio a conocer una herramienta de IA puesta a disposición del público para crear ataques, muy parecido a Chat GPT, pero que lleva como nombre Worm GPT.
La gente que cree que puede detectar un deep fake no conoce las IA más potentes”
Fuente:Excelsior