Este es uno de los hallazgos importantes publicados recientemente por el grupo global de seguridad cibernetica y seguridad digital Kaspersky.
Sergey Lozhkin jefe del Grupo de Investigacion y Analisis Global (GReAT) a cargo de la region de Oriente Medio Turquia Africa y Asia-Pacifico de Kaspersky destaco que desde que ChatGPT se hizo popular globalmente en 2023 sus expertos en seguridad cibernetica han registrado un rapido aumento en la aplicacion util de la IA (inteligencia artificial) para muchos propositos desde tareas comunes como la creacion de videos hasta tareas tecnicas como la deteccion y el analisis de amenazas.
Sin embargo en el lado opuesto los malos tambien estan aprovechando la IA para mejorar la capacidad de ataque cibernetico. “Estamos entrando en una nueva era de seguridad cibernetica y social donde la IA juega un papel de escudo para la defensa mientras que la IA Dark se convierte en un arma peligrosa en los ciberataques” compartio Sergey Lozhkin.
Dark AI se utiliza para referirse a la implementacion a nivel local o remoto de grandes modelos de lenguaje (LLM) que no estan limitados en un sistema completo o una plataforma de chatbots para fines maliciosos no eticos o ilegales.
Estos sistemas operan fuera de las normas de seguridad cumplimiento y control de gestion que a menudo permiten realizar actos como fraude manipulacion ciberataques o explotacion de datos sin una supervision estricta.
Lozhkin compartio que la forma mas comun de abuso de la IA en la actualidad es la aparicion de modelos Black Hat GPT que surgieron a mediados de 2023.
Estos son modelos de IA desarrollados o ajustados especificamente para servir a propositos no eticos e ilegales tales como: crear malware redactar correos electronicos fraudulentos de manera fluida y altamente persuasiva para servir tanto a ataques a gran escala como dirigidos a objetivos especificos como para crear voces falsas y videos deepfake...
Los Black Hat GPT pueden existir en forma de modelos de IA completamente privados o semiprivados y estan diseñados para servir a actividades de ciberdelincuencia fraude y automatizacion dañina.
Para ayudar a las organizaciones a fortalecer su capacidad de defensa contra las amenazas de la Dark AI los expertos en seguridad cibernetica recomiendan:
- Utilizar soluciones de seguridad de nueva generacion para detectar malware creado por la IA y controlar los riesgos en la cadena de suministro.
- Aplicar herramientas de informacion de amenaza en tiempo real para monitorear los comportamientos de explotacion de vulnerabilidades controlados por la IA.
- Fortalecer el control de acceso y la capacitacion de los empleados para limitar el fenomeno de la IA en la oscuridad (Shadow AI) y el riesgo de fuga de datos.
- Establecer un Centro de Operaciones de Seguridad de la Red (SOC) para monitorear las amenazas y responder rapidamente a los incidentes.