17.4 C
Córdoba
30 noviembre, 2024

Alerta por Bard y ChatGPT: el nuevo peligro oculto detrás del auge de la inteligencia artificial

Aunque los servicios de inteligencia artificial más populares afirman que no almacenan en caché la información enviada por los usuarios, a lo largo de los últimos meses se produjeron varios incidentes, específicamente con ChatGPT, que dejaron expuestos datos sensibles de usuarios por vulnerabilidades en la construcción del sistema.

Check Point Research, la división de Inteligencia de Amenazas Check Point Software, un proveedor líder especializado en ciberseguridad a nivel mundial, dio a conocer una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.

Cada vez es más común que los desarrolladores se respalden en la IA para el desarrollo de código de software. Sin embargo, además de una gran facilidad y rapidez de respuesta, estas herramientas también pueden convertirse en la mayor fuente accidental de filtraciones de datos.

La combinación de usuarios despreocupados y gran volumen de información compartida es perfecta para los ciberdelincuentes que buscan explotar brechas como esta para obtener datos como números de tarjetas de crédito, e incluso los registros completos de las consultas realizadas en estos chats.

Como parte de su solución, Check Point Software pone al servicio de las empresas una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa, con una nueva categoría agregada a su conjunto de controles de gestión de tráfico.

De esta manera, las compañías pueden mantener un mayor control e incluso bloquear el uso no autorizado de aplicaciones de IA generativa, añadiendo un control granular y seguro de acceso web para entornos locales, la nube, dispositivos móviles y otros endpoints.

La IA generativa y el riesgo de ciberataques

(Foto: EFE)

(Foto: EFE)
Desde el lanzamiento comercial de ChatGPT de OpenAI a fines de 2022, Check Point Research (CPR) ha estado analizando la seguridad y protección de las herramientas populares. Mientras tanto, la industria de IA generativa se ha centrado en promover sus beneficios revolucionarios, minimizando los riesgos de seguridad para las empresas y los sistemas de TI.

El análisis de ChatGPT4 realizado por la misma agencia destacó posibles escenarios para la aceleración de delitos cibernéticos.

CPR presentó informes sobre cómo los modelos de IA pueden utilizarse para crear un flujo completo de infección, desde el spear-phishing hasta la ejecución de un código de shell inverso, puertas traseras e incluso códigos de cifrado para ataques de ransomware.

Si bien OpenAI implementó algunas medidas de seguridad para evitar la generación de contenido malicioso en su plataforma, CPR demostró cómo los ciberdelincuentes encuentran formas de evadir tales restricciones.

Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas. Esto implica que los datos confidenciales estarían potencialmente disponibles para un número ilimitado de usuarios incluyendo, por supuesto, los propios ciberdelincuentes.

Estafas «inteligentes» en Facebook

Los anuncios falsos de ChatGPT en Facebook. Foto: Check Point Research.

Los anuncios falsos de ChatGPT en Facebook. Foto: Check Point Research.
La misma agencia descubrió también cómo los ciberdelincuentes utilizan Facebook para atraer y estafar a sus víctimas y obtener sus contraseñas y datos privados.

Los ciberdelincuentes continúan buscando nuevas formas de robar información privada y para ello se aprovechan de las nuevas necesidades surgidas de las herramientas de inteligencia artificial, y el resultado es que cada vez son más comunes los casos de suplantación de estas aplicaciones.

La investigación reciente determinó, en primer lugar, que los criminales crean páginas o grupos falsos en la red social suplantando algunas de las herramientas de IA más utilizadas, como ChatGPT, Bard o Midjourney. 

De esta manera, además de la propia captación de víctimas, los ciberdelincuentes logran que éstas interactúen con las publicaciones, ya sea a través de simples «Me gusta» o incluso compartiendo el contenido, asegurando un mayor alcance.

Los ciberdelincuentes que están detrás de estas páginas maliciosas en Facebook hacen todo lo posible para asegurarse de que parezcan auténticas y aumentar su credibilidad. Cuando un usuario desprevenido busca Midjourney AI en Facebook y encuentra una página con 1.2 millones de seguidores, es probable que crea que se trata de una página de confianza.

El mismo principio se aplica a otros indicadores de legitimidad de la página: cuando las publicaciones en la página falsa tienen numerosos «me gusta» y comentarios, da la falsa sensación de que otros usuarios ya interactuaron positivamente con el contenido, lo que reduce las sospechas de las víctimas.

No obstante, los investigadores detectaron que una gran parte de los comentarios e interacciones de estos puntos de encuentro en la red social son realizados por bots, mostrando en su mayoría nombres y mensajes en vietnamita, coincidiendo con el idioma predeterminado de las webs de destino promocionadas.

Y es que el objetivo principal de esta página falsa de Facebook de Mid-Journey AI es engañar a los usuarios para desviarles a un entorno fuera de la red social para que descarguen un malware.

El primer enlace, ai-midjourney[.]net, tan sólo muestra un único botón con el mensaje «Comenzar». Este botón redirige al segundo sitio falso, midjourneys[.]info, que ofrece descargar Midjourney AI de forma gratuita durante 30 días.

Cuando el usuario hace clic en el botón, en realidad descarga un archivo llamado MidJourneyAI.rar desde Gofile, una plataforma de intercambio y almacenamiento de archivos gratuita.

Una vez que se completa la descarga, la víctima, que espera haber descargado el instalador legítimo de MidJourney, ejecuta un archivo malicioso camuflado bajo el nombre “Mid-Journey_Setup.exe”.

Este archivo de configuración falso instala Doenerium, un infostealer de código abierto que se ha observado en otras estafas, que actúa con el objetivo final de recopilar los datos personales de las víctimas. El malware se almacena a sí mismo y todos sus múltiples archivos y directorios auxiliares en la carpeta TEMP del sistema operativo.

Tras esto, utiliza varios servicios legítimos de plataformas como Github (aloja código para programadores), Gofile y Discord (comunicación) como medios de comunicación y exfiltración de datos para el control y comando.

Así, a través de la cuenta de Github “antivirusevasion69”, el malware envia un webhook a Discord para completar la tarea de los ciberdelincuentes. Esta es una forma de enviar datos o notificaciones automáticas desde una aplicación o servidor a otra aplicación en respuesta a eventos específicos, como en este caso enviar toda la información robada de las víctimas.

SL

Últimas Noticias
NOTICIAS RELACIONADAS