Volver al blogTEMPLATE · 2026-01-15 · 10 min de lectura

Plantilla de Politica de Shadow AI: Como Construirla y Aplicarla

Plantilla gratuita de politica de Shadow AI con 12 secciones esenciales. Mapeada a los marcos de cumplimiento NIST AI RMF, ISO 42001 y EU AI Act. Descubre por que las politicas sin aplicacion tecnica fracasan.

Por que necesitas una politica de Shadow AI

La adopcion de herramientas de IA en las organizaciones ha superado el desarrollo de marcos de gobernanza para gestionarlas. Segun el informe Cost of a Data Breach de IBM (2025), solo el 37% de las organizaciones tienen politicas disenadas especificamente para detectar y gestionar Shadow AI. El 63% restante opera sin un plan formal para abordar la categoria de riesgo de datos de mas rapido crecimiento en la empresa.

Las consecuencias financieras son graves. Las brechas de Shadow AI cuestan a las organizaciones $4.63 millones en promedio (IBM, 2025), es decir, $670,000 mas que las organizaciones con baja exposicion a Shadow AI. E incluso cuando existen politicas, a menudo fallan: el 78% de los empleados usan herramientas de IA no aprobadas incluso cuando su organizacion tiene una politica de IA vigente (WalkMe/SAP, 2025).

Si no estas familiarizado con el concepto de Shadow AI, comienza con nuestra guia completa: Que es Shadow AI?

Una politica de Shadow AI no es lo mismo que una "Politica de Uso Aceptable de IA" generica. Mientras que una politica de uso aceptable cubre como los empleados deben interactuar con herramientas de IA aprobadas, una politica de Shadow AI aborda especificamente la deteccion, prevencion y respuesta al uso no autorizado y no gestionado de IA. La distincion importa porque el perfil de riesgo es completamente diferente. Las herramientas aprobadas tienen acuerdos de procesamiento de datos, revisiones de seguridad y registros de auditoria. Shadow AI no tiene ninguna de estas protecciones.

Una politica sin herramientas de aplicacion es solo papel. Necesitas tanto una politica bien estructurada como los controles tecnicos para hacerla realidad. Esta guia te proporciona el marco de politica. La seccion final te muestra como aplicarla.

Politica de Shadow AI vs Politica de Uso Aceptable de IA

Las organizaciones a menudo confunden estos dos documentos o intentan combinarlos en uno solo. Esto es un error. Cada uno tiene un proposito distinto, y necesitas ambos para cubrir todo el espectro de gobernanza de IA.

Una Politica de Uso Aceptable de IA (AUP) es amplia. Cubre todo el uso de IA en la organizacion, incluidas las herramientas aprobadas y sancionadas. Define como los empleados deben usar la IA de manera responsable: que datos pueden compartir, como deben revisar las salidas de IA, requisitos de atribucion y estandares de calidad.

Una Politica de Shadow AI es especifica. Se enfoca en el uso no autorizado de IA: como la organizacion lo detecta, lo previene y responde cuando ocurre. Define que constituye una herramienta no autorizada, que monitoreo realiza la organizacion y que sucede cuando se descubren violaciones.

Dimension Politica de Uso Aceptable de IA Politica de Shadow AI
Enfoque Como usar las herramientas de IA aprobadas de manera responsable Como detectar, prevenir y responder al uso no autorizado de IA
Alcance Todas las herramientas de IA sancionadas Todas las herramientas de IA no sancionadas, no aprobadas o no gestionadas
Tono Habilitador y prescriptivo Protector y reactivo
Secciones clave Reglas de manejo de datos, revision de salidas, atribucion, estandares de calidad Monitoreo, respuesta a incidentes, aplicacion, clasificacion de herramientas
Audiencia Todos los empleados que usan IA aprobada Equipos de Seguridad, TI, Cumplimiento; todos los empleados como sujetos

Por que necesitas ambas: la AUP gobierna el uso sancionado de IA, pero segun UpGuard (2025), el 81% del uso empresarial de IA no esta autorizado. Tu AUP cubre el 19% que es visible y aprobado. Tu politica de Shadow AI cubre el otro 81%.

Las 12 secciones que toda politica de Shadow AI necesita

Una politica de Shadow AI completa debe cubrir las siguientes doce secciones. Cada seccion aborda una dimension especifica del problema de Shadow AI, desde definir que cuenta como IA no autorizada hasta establecer como los empleados pueden solicitar nuevas herramientas.

1. Proposito y alcance

Comienza declarando por que existe la politica y a quien se aplica. El proposito debe hacer referencia al compromiso de la organizacion con la adopcion responsable de IA mientras protege datos sensibles, propiedad intelectual y cumplimiento regulatorio.

El alcance debe ser amplio: todos los empleados, contratistas, consultores, trabajadores temporales, pasantes y proveedores externos que acceden a los sistemas o datos de la empresa. El riesgo de Shadow AI no respeta los limites organizacionales. Un contratista pegando datos confidenciales en ChatGPT crea la misma exposicion que un empleado de tiempo completo haciendo lo mismo.

2. Definiciones

Define todos los terminos clave claramente para eliminar la ambiguedad. Como minimo, tu seccion de definiciones debe cubrir:

  • Shadow AI: Cualquier herramienta de IA, servicio, modelo, extension o funcion impulsada por IA utilizada para propositos laborales sin la aprobacion explicita de TI, Seguridad o el organo de gobernanza designado.
  • Herramientas de IA aprobadas: Herramientas de IA que han pasado la revision de seguridad de la organizacion y estan autorizadas para casos de uso especificos con restricciones de datos definidas.
  • Herramientas de IA prohibidas: Herramientas de IA que han sido evaluadas y explicitamente prohibidas debido a preocupaciones de seguridad, privacidad o cumplimiento.
  • Categorias de datos sensibles: Define que constituye datos sensibles en el contexto del uso de IA, incluyendo PII, PHI, datos financieros, propiedad intelectual, codigo fuente, credenciales, secretos comerciales y datos regulados.

3. Clasificacion de herramientas de IA (3 niveles)

Establece un sistema claro de niveles para categorizar las herramientas de IA. Un modelo de tres niveles proporciona el equilibrio adecuado entre simplicidad y granularidad:

  • Nivel 1: Totalmente aprobadas. Herramientas que han completado la revision de seguridad, tienen acuerdos empresariales de procesamiento de datos vigentes y son gestionadas por TI. Sin restricciones de uso mas alla de la AUP. Ejemplos: ChatGPT empresarial con proteccion de datos, Copilot gestionado por la empresa con SSO.
  • Nivel 2: Uso limitado. Herramientas que estan permitidas solo para datos no sensibles. Los empleados pueden usar estas herramientas para investigacion general, lluvia de ideas y procesamiento de informacion publica, pero no deben enviar datos confidenciales, regulados o propietarios. Ejemplos: herramientas de IA de nivel gratuito para tareas no sensibles.
  • Nivel 3: Prohibidas. Herramientas que estan bloqueadas por completo debido a un riesgo inaceptable. Esto incluye herramientas de IA con problemas conocidos de retencion de datos, herramientas basadas en jurisdicciones que entran en conflicto con los requisitos de residencia de datos, y herramientas que no han pasado la revision de seguridad. Ejemplos: herramientas de IA sin politicas de privacidad claras, herramientas que entrenan con datos de usuarios por defecto.

4. Clasificacion de datos para uso de IA

Mapea tu marco de clasificacion de datos existente a los permisos de uso de IA. Esto crea una matriz clara que los empleados pueden consultar al decidir si usar IA para una tarea especifica:

  • Datos publicos: Se puede usar cualquier herramienta de IA. Sin restricciones de nivel de herramienta.
  • Datos internos: Solo herramientas de Nivel 1 (Aprobadas). Ejemplos: notas de reuniones internas, planes de proyectos no sensibles, comunicaciones comerciales generales.
  • Datos confidenciales: Solo herramientas de Nivel 1, con controles DLP activos. Ejemplos: informes financieros, datos de clientes, registros de empleados, estrategias comerciales.
  • Datos regulados (PII, PHI, PCI): Sin uso de IA sin aprobacion explicita del Oficial de Proteccion de Datos y controles DLP activos que saniticen los campos sensibles antes del envio.

5. Lista de herramientas aprobadas

Mantiene un documento vivo que liste cada herramienta de IA sancionada junto con sus casos de uso aprobados, restricciones de datos y el equipo responsable de su gobernanza. Esta lista debe ser facilmente accesible para todos los empleados y actualizarse regularmente.

Para cada herramienta aprobada, documenta: el nombre y version de la herramienta, los casos de uso aprobados (ej., "completado de codigo para repositorios no sensibles"), las restricciones de datos (ej., "sin PII, sin credenciales, sin algoritmos propietarios"), el equipo o propietario responsable, la fecha de la ultima revision de seguridad y cualquier requisito de configuracion (ej., "debe usar SSO, debe desactivar el entrenamiento con datos de la empresa").

6. Proceso de solicitud y aprobacion de herramientas

Uno de los principales impulsores de Shadow AI es que los empleados no pueden obtener las herramientas que necesitan a traves de canales oficiales con suficiente rapidez. Tu politica debe definir un proceso de solicitud agil:

  • Envio: Los empleados envian un formulario de solicitud especificando la herramienta, el caso de uso previsto, los tipos de datos involucrados y la justificacion empresarial.
  • Revision de seguridad: El equipo de seguridad evalua la herramienta contra criterios definidos: practicas de procesamiento de datos, politica de privacidad, retencion de datos, cifrado, certificacion SOC 2/ISO 27001 y jurisdiccion.
  • Plazo: Comprometerse a un periodo maximo de revision (ej., 10 dias habiles para solicitudes estandar, 5 para solicitudes aceleradas). Los ciclos de revision prolongados impulsan la adopcion de Shadow AI.
  • Ruta de escalacion: Define como los empleados pueden escalar si el proceso de revision se estanca o si no estan de acuerdo con una decision.

7. Monitoreo y transparencia

Esta seccion debe equilibrar las necesidades de seguridad organizacional con las expectativas de privacidad de los empleados. Se transparente sobre lo que la organizacion monitorea y por que:

  • Que se monitorea: Acceso a dominios conocidos de herramientas de IA, contenido enviado a plataformas de IA (para deteccion de datos sensibles), extensiones de navegador de IA instaladas y funciones de IA activadas en herramientas SaaS.
  • Que no se monitorea: Define claramente los limites, como el uso de dispositivos personales en redes personales.
  • Notificacion a empleados: Indica como se informa a los empleados sobre el monitoreo (ej., durante la incorporacion, mediante reconocimiento anual, a traves de notificaciones de extension del navegador).
  • Retencion de datos: Define cuanto tiempo se retienen los registros de monitoreo y quien tiene acceso a ellos.

8. Definicion de incidentes y respuesta

Define que constituye un incidente de Shadow AI y establece procedimientos de respuesta claros:

  • Categorias de incidentes: (a) Uso de una herramienta de IA prohibida sin exposicion de datos sensibles. (b) Uso de cualquier herramienta de IA con exposicion de datos sensibles. (c) Uso de herramientas de IA que viola requisitos regulatorios (GDPR, HIPAA, EU AI Act).
  • Procedimientos de respuesta: Contencion (evaluar inmediatamente que datos fueron expuestos), Investigacion (determinar el alcance, la herramienta involucrada y los tipos de datos afectados), Remediacion (revocar acceso, rotar credenciales si es necesario, notificar a las partes afectadas) y Documentacion (registrar el incidente para propositos de cumplimiento y auditoria).
  • Requisitos de notificacion: Define cuando los incidentes deben reportarse a partes interesadas internas (CISO, DPO, Legal) y cuando se requiere notificacion externa (organismos reguladores, individuos afectados).

9. Requisitos de capacitacion

Segun WalkMe/SAP (2025), el 48.8% de los empleados ocultan activamente su uso de IA a su empleador. La capacitacion debe abordar no solo el "que" sino el "por que," ayudando a los empleados a comprender los riesgos genuinos en lugar de simplemente imponer restricciones.

  • Alfabetizacion obligatoria en IA: Todos los empleados deben completar una capacitacion basica de concientizacion sobre riesgos de IA que cubra los riesgos de exposicion de datos, las implicaciones de cumplimiento y el uso adecuado de herramientas aprobadas.
  • Capacitacion especifica por rol: Los desarrolladores necesitan capacitacion sobre riesgos de asistentes de codigo IA (fuga de secretos, licencias de codigo). Los equipos de RRHH necesitan capacitacion sobre IA y datos de empleados. Los equipos de finanzas necesitan capacitacion sobre IA y proteccion de datos financieros. Los equipos legales necesitan capacitacion sobre IA y privilegio/confidencialidad.
  • Frecuencia: Durante la incorporacion, con actualizaciones anuales y actualizaciones ad hoc cuando ocurran cambios significativos en la politica o despues de incidentes notables.

10. Aplicacion y consecuencias

Define un modelo de aplicacion progresivo que equilibre la responsabilidad con el aprendizaje:

  • Primera violacion (baja gravedad): Advertencia documentada y capacitacion de actualizacion obligatoria. Enfoque en educacion, no en castigo.
  • Violacion repetida o de gravedad moderada: Restricciones de acceso, notificacion al gerente y documentacion formal en el expediente del empleado.
  • Violacion grave (exposicion de datos sensibles, brecha regulatoria): Escalacion a RRHH y Legal, posible accion disciplinaria hasta e incluyendo la terminacion.
  • Aplicacion tecnica: En paralelo con la aplicacion humana, implementa controles tecnicos que bloqueen herramientas prohibidas, muestren advertencias para acciones riesgosas y registren todas las interacciones de IA para propositos de auditoria.

11. Cadencia de revision

El panorama de la IA evoluciona mas rapido que cualquier otra categoria tecnologica. Tu politica de Shadow AI debe evolucionar con el:

  • Revisiones programadas: Trimestralmente como minimo. Revisar la lista de herramientas aprobadas, la matriz de clasificacion de datos y los registros de incidentes.
  • Revisiones basadas en disparadores: Realizar una revision inmediata cuando se promulguen nuevas regulaciones (ej., hitos de aplicacion del EU AI Act), despues de un incidente significativo de Shadow AI, cuando se lancen nuevas herramientas de IA importantes, o cuando cambie el marco de clasificacion de datos de la organizacion.
  • Equipo de revision: La revision debe involucrar a representantes de Seguridad, Legal, Cumplimiento, RRHH y unidades de negocio.

12. Mecanismo de retroalimentacion de empleados

Esta seccion a menudo se pasa por alto, pero es una de las mas importantes. Shadow AI existe porque los empleados tienen necesidades no satisfechas. Si tu politica no incluye un mecanismo para que los empleados expresen esas necesidades, estas tratando sintomas en lugar de causas raiz.

  • Canal de solicitud de herramientas: Un proceso claro y accesible para que los empleados soliciten nuevas herramientas o funciones de IA.
  • Retroalimentacion sobre la politica: Un mecanismo para que los empleados sugieran cambios en la politica, reporten fricciones o senalen reglas excesivamente restrictivas que impulsan soluciones alternativas.
  • Compromiso de respuesta: Comprometerse a responder a la retroalimentacion dentro de un plazo definido. El silencio genera Shadow AI.

Alineacion con marcos de cumplimiento

Tu politica de Shadow AI no existe de forma aislada. Debe alinearse con marcos de gobernanza de IA establecidos y requisitos regulatorios. Asi es como las 12 secciones se mapean a los tres marcos mas relevantes.

NIST AI Risk Management Framework (AI RMF)

El NIST AI RMF organiza la gestion de riesgos de IA en cuatro funciones: Governar, Mapear, Medir y Gestionar. Tu politica de Shadow AI toca las cuatro:

  • Governar: Las secciones 1 (Proposito y Alcance), 10 (Aplicacion), 11 (Cadencia de Revision) y 12 (Retroalimentacion) establecen la estructura de gobernanza para la gestion de riesgos de IA.
  • Mapear: Las secciones 2 (Definiciones), 3 (Clasificacion de Herramientas) y 4 (Clasificacion de Datos) mapean el panorama de riesgos de IA identificando herramientas, flujos de datos y categorias de riesgo.
  • Medir: Las secciones 7 (Monitoreo) y 8 (Respuesta a Incidentes) proporcionan el marco de medicion para evaluar la exposicion a riesgos de IA.
  • Gestionar: Las secciones 5 (Herramientas Aprobadas), 6 (Proceso de Solicitud) y 9 (Capacitacion) gestionan activamente el riesgo proporcionando alternativas aprobadas y educando a los empleados. La funcion Gestionar aborda explicitamente la conversion de usuarios de Shadow AI a alternativas gobernadas.

ISO 42001

ISO 42001 es el primer estandar internacional para sistemas de gestion de IA, y es certificable. Las organizaciones que buscan la certificacion ISO 42001 deben demostrar:

  • Inventario de IA: Un catalogo completo de todos los sistemas de IA en uso (Secciones 3 y 5 de tu politica de Shadow AI).
  • Evaluacion de riesgos: Identificacion y evaluacion de riesgos relacionados con la IA (Secciones 4 y 8).
  • Controles: Controles implementados para mitigar los riesgos identificados (Secciones 7 y 10).
  • Mejora continua: Evidencia de monitoreo continuo, revision y refinamiento de politicas (Secciones 11 y 12).

Una politica de Shadow AI es un prerequisito para la certificacion ISO 42001. Sin ella, la organizacion no puede demostrar control sobre su entorno de IA.

EU AI Act

El EU AI Act es aplicable desde agosto de 2026 e introduce los requisitos de gobernanza de IA mas estrictos del mundo. Implicaciones clave para Shadow AI:

  • Catalogo de sistemas de IA: Las organizaciones deben catalogar TODOS los sistemas de IA que influyen en decisiones sobre personas. Shadow AI hace imposible cumplir este requisito porque las herramientas no autorizadas, por definicion, no estan catalogadas.
  • Clasificacion de riesgo: El EU AI Act clasifica los sistemas de IA por nivel de riesgo (inaceptable, alto, limitado, minimo). Las herramientas de Shadow AI no pueden clasificarse si son desconocidas para la organizacion.
  • Sanciones: Las multas alcanzan hasta 35 millones de euros o el 7% de la facturacion global anual, lo que sea mayor. Estas sanciones se aplican a organizaciones que no mantienen un inventario de IA, usan sistemas de IA prohibidos o despliegan IA de alto riesgo sin controles adecuados.

Shadow AI hace imposible el cumplimiento del EU AI Act. No puedes clasificar, documentar ni gobernar sistemas de IA que no conoces.

Por que una politica sola no es suficiente: de la politica a la aplicacion con Onefend

Los datos cuentan una historia clara: el 78% de los empleados usan herramientas de IA no aprobadas a pesar de las politicas existentes (WalkMe/SAP, 2025). Casi la mitad de ellos ocultan activamente su uso. Las politicas sin aplicacion automatizada son documentos aspiracionales. Describen lo que deberia suceder, no lo que realmente sucede.

La brecha entre politica y practica es donde vive el riesgo de Shadow AI. Cerrar esa brecha requiere tecnologia que convierta cada seccion de la politica en un control aplicable.

Asi es como cada seccion de tu politica de Shadow AI se mapea a una capacidad de Onefend:

Seccion de la politica Capacidad de Onefend
Clasificacion de herramientas (Seccion 3) Shadow AI Discovery: detecta automaticamente todas las herramientas y servicios de IA accedidos en tu organizacion, incluyendo funciones de IA integradas en SaaS aprobado.
Clasificacion de datos (Seccion 4) Motor DLP: detecta mas de 50 tipos de datos sensibles en tiempo real, incluyendo PII, credenciales, datos financieros, registros de salud y codigo fuente, antes de que lleguen a modelos de IA externos.
Monitoreo (Seccion 7) Registros de auditoria en tiempo real: registros inmutables de cada interaccion con IA, buscables por usuario, herramienta, tipo de dato y accion tomada. Construido para reportes de cumplimiento.
Respuesta a incidentes (Seccion 8) Acciones configurables: bloquear, advertir, sanitizar o registrar segun la politica. Cada accion es configurable por herramienta de IA, tipo de dato y grupo de usuarios.
Capacitacion (Seccion 9) Modales educativos: coaching en el navegador en el momento del riesgo. Cuando un empleado intenta una accion riesgosa, Onefend muestra orientacion contextual explicando el riesgo y la alternativa aprobada.
Cadencia de revision (Seccion 11) Panel de analiticas: tendencias de uso de IA, metricas de riesgo, patrones de violacion de politicas e informes de cumplimiento. Proporciona la base de datos para las revisiones trimestrales de politicas.

La diferencia entre una politica y un programa es la aplicacion. Onefend convierte tu politica de Shadow AI de un documento en una capa de gobernanza viva y automatizada. En lugar de esperar que los empleados lean y sigan la politica, Onefend la aplica en cada interaccion con IA, en tiempo real, en cada navegador de tu organizacion.

Las organizaciones que usan Onefend pueden implementar una politica de Shadow AI sabiendo que cada seccion tiene un control tecnico correspondiente. La politica define las reglas. Onefend las aplica.

Solicita una demo para ver como Onefend aplica politicas de Shadow AI en tiempo real.

¿Listo para asegurar su camino en la IA?

Únase a las organizaciones que están estableciendo el estándar para la adopción segura de la IA.

Empezar a detectar Shadow AI