Un informe reciente del MIT, The GenAI Divide: State of AI in Business 2025, provocó un enfriamiento significativo de las acciones tecnológicas. Si bien el informe ofrece observaciones interesantes sobre la economía y la organización de la implementación de la IA en las empresas, también contiene información valiosa para los equipos de ciberseguridad. A los autores no les preocupaban los problemas de seguridad: las palabras “seguridad”, “ciberseguridad” o “protección” ni siquiera apcarecen en el informe. Sin embargo, sus hallazgos pueden y deben tenerse en cuenta al planificar nuevas políticas de seguridad corporativa en materia de IA.
La observación clave es que, si bien solo el 40 % de las organizaciones encuestadas compraron una suscripción a LLM, el 90 % de los empleados usan regularmente herramientas personales impulsadas por IA para tareas de trabajo. Y se dice que esta “economía de la IA en la sombra”, término utilizado en el informe, es más eficaz que la oficial. Solo el 5 % de las empresas ven un beneficio económico de sus implementaciones de IA, mientras que los empleados están impulsando con éxito su productividad personal.
El enfoque descendente para la implementación de la IA a menudo no tiene éxito. Por lo tanto, los autores recomiendan “aprender del uso de la IA en la sombra y analizar qué herramientas personales ofrecen valor antes de adquirir alternativas empresariales”. Entonces, ¿cómo se alinea este consejo con las reglas de ciberseguridad?
Una prohibición total de la IA en la sombra
Una política favorecida por muchos CISO es probar e implementar, o mejor aún, crear las propias herramientas de IA y luego simplemente prohibir todas las demás. Este enfoque puede ser económicamente ineficaz y hacer que la empresa se quede atrás de sus competidores. También es difícil de aplicar, ya que garantizar el cumplimiento puede ser complicado y costoso. Sin embargo, para algunas industrias altamente reguladas o para unidades de negocios que manejan datos extremadamente confidenciales, una política prohibitiva podría ser la única opción. Se pueden usar los siguientes métodos para implementarla:
- Bloquear el acceso a todas las herramientas de IA populares a nivel de red mediante una herramienta de filtrado de red.
- Configurar un sistema DLP para supervisar y bloquear la transferencia de datos a aplicaciones y servicios de IA; esto incluye impedir que se copien y peguen grandes bloques de texto a través del portapapeles.
- Usar una política de lista de aplicaciones permitidas en dispositivos corporativos para evitar que los empleados ejecuten aplicaciones de terceros que podrían usarse para acceso directo a la IA o para eludir otras medidas de seguridad.
- Prohibir el uso de dispositivos personales para tareas relacionadas con el trabajo.
- Usar herramientas adicionales, como análisis de vídeo, para detectar y limitar la capacidad de los empleados de tomar fotografías de las pantallas de sus ordenadores con sus teléfonos inteligentes personales.
- Establecer una política para toda la empresa que prohíba el uso de cualquier herramienta de IA, excepto aquellas que figuren en una lista aprobada por la administración e implementadas por los equipos de seguridad corporativa. Esta política debe documentarse formalmente y los empleados deben recibir la formación adecuada.
Uso sin restricciones de la IA
Si la empresa considera que los riesgos derivados del uso de herramientas de IA son insignificantes, o cuenta con departamentos que no manejan datos personales u otros datos confidenciales, el uso de la IA por parte de estos equipos puede ser prácticamente ilimitado. Al establecer una breve lista de medidas de higiene y restricciones, la empresa puede observar los hábitos de uso de LLM, identificar los servicios más populares y utilizar estos datos para planificar acciones futuras y perfeccionar sus medidas de seguridad. Incluso con este enfoque democrático, sigue siendo necesario lo siguiente:
- Capacita a los empleados sobre los conceptos básicos del uso responsable de la IA con la ayuda de un módulo de ciberseguridad. Un buen punto de partida: nuestras recomendaciones, o añadir un curso especializado a la plataforma de concientización sobre seguridad de la empresa.
- Configura un registro detallado del tráfico de la aplicación para analizar el ritmo de uso de la IA y los tipos de servicios que se utilizan.
- Asegúrate de que todos los empleados tengan un agente EPP/EDR instalado en sus dispositivos de trabajo, y una solución de seguridad robusta en sus dispositivos personales. (La "aplicación ChatGPT" ha sido el cebo preferido de los estafadores para propagar infostealers en 2024-2025).
- Realiza encuestas periódicas para averiguar con qué frecuencia se utiliza la IA y para qué tareas. Mide el efecto y los riesgos de su uso para ajustar tus políticas sobre la base de datos de telemetría y encuestas.
Restricciones equilibradas sobre el uso de la IA
Cuando se trata del uso de la IA en toda la empresa, es probable que ninguno de los dos extremos, la prohibición total o la libertad total, sea adecuado. Más versátil sería una política que permita diferentes niveles de acceso a la IA sobre la base del tipo de datos que se estén utilizando. La implementación completa de dicha política requiere lo siguiente:
- Un proxy de IA especializado que limpie las consultas sobre la marcha al eliminar tipos específicos de datos confidenciales (como nombres o ID de clientes) y utilice el control de acceso basado en funciones para bloquear casos de uso inapropiados.
- Un portal de autoservicio de TI para que los empleados declaren su uso de herramientas de IA, desde modelos y servicios básicos hasta aplicaciones especializadas y extensiones de navegador.
- Una solución (NGFW, CASB, DLP u otra) para la supervisión y el control detallados del uso de la IA a nivel de solicitudes específicas para cada servicio.
- Solo para empresas que desarrollan software: canalizaciones CI/CD modificadas y herramientas SAST/DAST para identificar automáticamente el código generado por IA y marcarlo para que se le apliquen pasos de verificación adicionales.
- Al igual que con el escenario sin restricciones, la formación periódica de los empleados, las encuestas y la seguridad sólida tanto para el trabajo como para los dispositivos personales.
Una vez establecidos los requisitos mencionados, es necesario desarrollar una política que abarque diferentes departamentos y diversos tipos de solicitudes. Podría verse así:
Tipo de datos | IA pública (desde dispositivos y cuentas personales) | Servicio de IA externo (a través de un proxy de IA corporativo) | Herramientas de IA en la nube de confianza o en las instalaciones |
Datos públicos (como el texto de un anuncio) | Permitidos (declarado a través del portal de la empresa) | Permitidos (registrados) | Permitidos (registrados) |
Datos internos generales (como el contenido del correo electrónico) | Desaconsejados pero no bloqueado. Requiere declaración. | Permitidos (registrados) | Permitidos (registrados) |
Datos confidenciales (como el código fuente de la aplicación, comunicaciones legales o de RR. HH.) | Bloqueados por DLP/CASB/NGFW | Permitidos para escenarios específicos aprobados por el administrador (se deben eliminar los datos personales; el código requiere comprobaciones tanto automáticas como manuales) | Permitidos (registrados, con los datos personales eliminados según sea necesario) |
Datos regulados de alto impacto (financieros, médicos, etc.) | Prohibidos | Prohibidos | Permitidos con la aprobación del CISO, sujeto a los requisitos reglamentarios de almacenamiento |
Datos altamente críticos y clasificados | Prohibidos | Prohibidos | Prohibidos (las excepciones solo son posibles con la aprobación de la junta directiva) |
Para hacer cumplir la política, es necesario un enfoque organizativo de varios niveles, además de las herramientas técnicas. En primer lugar, los empleados deben recibir formación sobre los riesgos asociados a la IA, desde la filtración de datos y las alucinaciones hasta las inyecciones de prompts. Esta formación debería ser obligatoria para todos los miembros de la organización.
Después de la formación inicial, es fundamental desarrollar políticas más detalladas y proporcionar formación avanzada a los jefes de departamento. Esto les permitirá tomar decisiones informadas sobre si aprobar o denegar las solicitudes de uso de datos específicos con herramientas públicas de IA.
Las políticas, los criterios y las medidas iniciales son solo el comienzo; deben actualizarse periódicamente. Esto implica analizar datos, refinar los casos de uso de IA en el mundo real y supervisar herramientas populares. Se necesita un portal de autoservicio como entorno libre de estrés en el que los empleados puedan explicar qué herramientas de IA están utilizando y con qué fines. Estos valiosos comentarios enriquecen tus análisis, ayudan a crear un caso comercial para la adopción de la IA y proporcionan un modelo basado en funciones para aplicar las políticas de seguridad correctas.
Por último, es imprescindible un sistema de varios niveles para responder a las infracciones. Posibles pasos:
- Una advertencia automática y un curso de micro-formación obligatorio sobre la infracción cometida.
- Una reunión privada entre el empleado y su jefe de departamento y un responsable de seguridad de la información.
- Una prohibición temporal de las herramientas impulsadas por IA.
- Medidas disciplinarias estrictas a través de RR. HH.
Un enfoque integral de la seguridad de la IA
Las políticas aquí analizadas cubren una gama relativamente limitada de riesgos asociados al uso de soluciones SaaS para la IA generativa. Para crear una política completa que aborde todo el espectro de riesgos relevantes, consulta nuestras pautas para implementar sistemas de IA de forma segura, desarrolladas por Kaspersky en colaboración con otros expertos de confianza.