Las empresas están compartiendo cada vez más datos con aplicaciones de inteligencia artificial generativa (GenAI). Según un nuevo estudio de Netskope, la cantidad de datos que las organizaciones comparten ha aumentado de 250 MB a 7.7 GB al mes en solo un año. Esto significa que hay un gran riesgo de que información sensible, como contraseñas y códigos fuente, se exponga sin la protección adecuada.
El estudio también revela que el 72% de los empleados utilizan cuentas personales para acceder a estas herramientas de IA, lo que se conoce como “shadow AI”. Esto puede ser peligroso, ya que muchas empresas no tienen políticas de seguridad sólidas para proteger sus datos. Un ejemplo de esto es DeepSeek AI, donde el 91% de los usuarios empresariales lo usaron poco después de su lanzamiento, pero muchas empresas no estaban preparadas para manejarlo de manera segura.
Netskope critica que las empresas adopten un enfoque restrictivo al bloquear el acceso a herramientas de IA, ya que esto puede llevar a los empleados a buscar soluciones no autorizadas, aumentando el riesgo para la empresa. En cambio, se sugiere que las organizaciones habiliten estas herramientas de manera segura.
Además, el informe destaca que el 54% de las empresas ahora utilizan versiones locales de GenAI, un aumento significativo en comparación con menos del 1% del año pasado. Esto indica una tendencia hacia la creación de infraestructuras de IA más seguras.
Ray Canzanese, director de Netskope Threat Labs, advierte que la integración de GenAI en diversas aplicaciones presenta un desafío creciente en ciberseguridad. Las empresas deben adoptar un enfoque integral para gestionar los riesgos y proteger su información sensible de posibles exposiciones. Netskope recomienda que las organizaciones evalúen sus herramientas y usuarios para ofrecer soluciones más seguras y personalizadas.

