Ciberseguridad con IA en 2025: El arma de doble filo

La inteligencia artificial está revolucionando la ciberseguridad, pero también potenciando los ataques. Descubre cómo las empresas pueden aprovechar la IA para defenderse mientras enfrentan amenazas como deepfakes, phishing automatizado y Shadow AI.

Ciberseguridad con IA en 2025: El arma de doble filo
Robert Cojocaru
demo image

Introducción: Una nueva era de amenazas y defensas

En 2025, la convergencia entre inteligencia artificial y ciberseguridad ha alcanzado un punto de inflexión. El mercado de IA en ciberseguridad está valorado en más de $34 mil millones y se proyecta que alcance los $234 mil millones para 2032, con un crecimiento anual del 31.70%. Pero esta revolución tecnológica es un arma de doble filo: mientras las organizaciones adoptan IA para protegerse, los ciberdelincuentes la utilizan para lanzar ataques más sofisticados que nunca.

El lado oscuro: Ataques potenciados por IA

Phishing hiperpersonalizado

Los ataques de phishing han evolucionado dramáticamente. Según el informe de KnowBe4 de 2025, el 83% de los correos de phishing son generados por IA. Los atacantes utilizan modelos de lenguaje para crear mensajes perfectamente redactados, sin errores gramaticales y personalizados según el contexto de la víctima.

Las cifras son alarmantes:

  • Los ataques de phishing han aumentado un 1,265% desde la adopción masiva de IA generativa
  • Las pérdidas financieras globales por phishing alcanzaron los $17.4 mil millones en 2024, un 45% más que el año anterior
  • En 2024 se reportaron aproximadamente 200,000 incidentes de phishing y suplantación de identidad al FBI

Deepfakes: La amenaza invisible

Los deepfakes han pasado de ser curiosidades tecnológicas a herramientas de fraude empresarial. En 2025:

  • Hubo un 19% más de incidentes de deepfake solo en el primer trimestre de 2025 que en todo 2024
  • El 62% de las organizaciones han experimentado al menos un intento de ataque con deepfake
  • Los deepfakes están involucrados en más del 30% de los ataques de suplantación corporativa de alto impacto
  • Las pérdidas por fraude financiero en EE.UU. alcanzaron los $12.5 mil millones en 2025

El surgimiento de Deepfake-as-a-Service (DaaS) ha democratizado estos ataques, permitiendo que criminales sin conocimientos técnicos lancen campañas de ingeniería social a escala.

Clonación de voz: El nuevo vector de ataque

La clonación de voz con IA puede recrear la voz de cualquier persona con solo segundos de audio. Estudios revelan que:

  • 1 de cada 10 adultos ha sido víctima de estafas con voz clonada por IA
  • El 77% de las víctimas perdieron dinero
  • Las personas solo identifican correctamente voces generadas por IA el 60% de las veces

El problema oculto: Shadow AI en las empresas

¿Qué es Shadow AI?

Shadow AI se refiere al uso de herramientas de IA sin aprobación, gobernanza o supervisión de seguridad por parte de la organización. Este fenómeno se ha convertido en una de las mayores amenazas internas:

  • El 98% de los empleados utiliza aplicaciones no autorizadas
  • El 77% de los empleados pega datos en prompts de IA generativa, de los cuales el 82% proviene de cuentas no gestionadas
  • El 49% de las empresas espera sufrir un incidente relacionado con Shadow AI en los próximos 12 meses
  • El 50% de las empresas anticipa fugas de datos a través de herramientas de IA generativa

El caso Samsung: Una advertencia

El incidente de Samsung ilustra perfectamente los riesgos: empleados comprometieron código fuente propietario y notas de reuniones críticas al ingresarlos en ChatGPT. Cada consulta a una herramienta de IA puede abrir una puerta a la filtración de datos.

Brechas de gobernanza

Las estadísticas revelan una desconexión preocupante:

  • Casi el 90% de los profesionales de seguridad han usado herramientas de IA
  • Solo el 32% de las organizaciones tienen controles formales implementados
  • El 39% de las organizaciones no tiene a nadie responsable del riesgo de IA

El lado brillante: IA para la defensa

Herramientas líderes en 2025

La industria de ciberseguridad ha respondido con soluciones avanzadas basadas en IA:

CrowdStrike Falcon: Utiliza modelos de machine learning entrenados con billones de eventos de seguridad semanalmente para identificar amenazas sofisticadas en endpoints.

Darktrace ActiveAI: Emplea modelado de comportamiento auto-aprendiente y detección de anomalías para identificar amenazas sigilosas y contener ataques autónomamente.

Vectra AI: Analiza metadatos para descubrir movimiento lateral, escalación de privilegios y comportamientos de comando y control, incluso en tráfico cifrado.

IBM QRadar SIEM: Despliega IA para proporcionar detección avanzada de amenazas, investigación y tecnologías de respuesta.

Check Point Infinity AI: Aprovecha más de 50 motores de IA alimentados por datos globales de amenazas para defensa proactiva.

Cómo funciona la detección con IA

Los sistemas de IA establecen líneas base del comportamiento normal de la red y luego monitorean continuamente en busca de anomalías. Esta capacidad, conocida como User and Entity Behavior Analytics (UEBA), permite detectar:

  • Ataques de día cero
  • Ransomware polimórfico
  • Amenazas internas
  • Ataques sin firma conocida

La IA puede acelerar las investigaciones de alertas y triaje en un promedio del 55%, reduciendo drásticamente el tiempo de respuesta ante incidentes.

IA Agéntica: El futuro de la defensa

La IA Agéntica representa la siguiente generación en inteligencia de amenazas. En lugar de reaccionar a las amenazas, predice y responde a través de todo el ciclo de vida del ataque, dando a los defensores la velocidad y autonomía que los atacantes ya explotan.

Mejores prácticas para 2025

1. Gobernanza de IA

  • Auditar departamentos para identificar qué herramientas de IA están en uso
  • Aplicar principios de Zero Trust tratando toda IA como riesgosa hasta verificar
  • Crear una Política de Uso Aceptable de IA
  • Clasificar herramientas de IA en categorías: Aprobadas, Uso Limitado y Prohibidas

2. Proporcionar alternativas seguras

  • Establecer un catálogo interno de aplicaciones de IA aprobadas
  • Desplegar LLMs empresariales privados como Amazon Q o ChatGPT Enterprise
  • Evitar prohibiciones totales que empujen el uso de IA a la clandestinidad

3. Defensa multicapa

  • Implementar Centros de Operaciones de Seguridad (SOCs) optimizados con IA
  • Emplear modelos avanzados de detección basados en comportamiento
  • Utilizar verificación fuera de banda para acciones críticas como transferencias bancarias

4. Cultura de ciberseguridad

  • Involucrar a todos los empleados, desde ejecutivos hasta personal de primera línea
  • Invertir en formación específica en IA (el 94% de las empresas planea hacerlo para 2026)
  • Reintroducir tácticas tradicionales de verificación: reuniones presenciales para decisiones de alto riesgo y "palabras seguras" como herramientas de verificación

5. Reforzar la higiene digital

  • Priorizar la protección de identidades
  • Asegurar el perímetro empresarial
  • Monitorear continuamente los activos en la nube
  • Identificar vulnerabilidades y planificar con anticipación

Conclusión: Preparándose para el futuro

La IA en ciberseguridad es efectivamente un arma de doble filo. Los atacantes la utilizan para crear amenazas más convincentes y automatizadas, mientras que los defensores la aprovechan para detectar y responder más rápidamente que nunca.

La clave para las empresas en 2025 no es elegir entre adoptar o rechazar la IA, sino implementarla de manera estratégica y gobernada. Las organizaciones que logren equilibrar la innovación con la seguridad, proporcionar alternativas seguras a Shadow AI y cultivar una cultura de ciberseguridad integral estarán mejor posicionadas para enfrentar las amenazas del futuro.

En esta carrera armamentista tecnológica, la pregunta no es si usar IA, sino cómo usarla de manera responsable y efectiva.

Otros artículos