Por: Daniela Menéndez, Country Manager Palo Alto Networks México
La inteligencia
artificial generativa (GenAI) está transformando la forma en que trabajamos,
creamos y tomamos decisiones. En México, su adopción ha sido notable con el uso
de herramientas como Grammarly y ChatGPT, por ejemplo, que recientemente se han
convertido en parte del día a día de miles de profesionales. Sin embargo, esta
revolución tecnológica también ha abierto la puerta a nuevos riesgos que muchas
organizaciones aún no están preparadas para afrontar.
De acuerdo con el
informe "The State of Generative AI 2025", elaborado por Unit 42, el equipo de inteligencia de amenazas de
Palo Alto Networks, el uso de GenAI en México ha crecido exponencialmente. El
país se encuentra entre los más activos de América Latina, con un promedio de
más de 60 aplicaciones de GenAI por organización. Lo preocupante es que al
menos el 10% de estas aplicaciones se consideran de alto riesgo, ya sea porque
permiten la carga de archivos sensibles, carecen de un cifrado adecuado,
utilizan los datos ingresados para entrenar sus modelos o no cumplen con los
estándares básicos de privacidad y autenticación. Estas características
aumentan significativamente la posibilidad de fuga de información, uso indebido
de datos o exposición a contenido malicioso.
Uno de los principales
retos es el fenómeno de la IA en la sombra, es decir, cuando los empleados
utilizan herramientas de IA sin conocimientos ni aprobación del departamento de
TI. Esto puede conducir a la exposición de información confidencial, incumplimientos
regulatorios y pérdida de propiedad intelectual. Y no se trata de escenarios
hipotéticos, basta con que un empleado copie fragmentos de código en una
plataforma pública para pedir ayuda o que un ejecutivo escriba una presentación
estratégica con una IA sin saber que sus datos podrían ser almacenados o
reutilizados por terceros.
Además, hemos comprobado
que muchas de estas aplicaciones no cuentan con los controles de seguridad
necesarios. Más del 70% de los asistentes de escritura evaluados eran
vulnerables a las técnicas de jailbreak, es decir, métodos que manipulan la IA
para generar respuestas que normalmente se bloquearían, incluido el contenido
inapropiado o riesgoso. En un entorno en el que la IA puede redactar correos
electrónicos, generar contratos o incluso responder a los clientes, este tipo
de fallos representan un riesgo real para la reputación y el funcionamiento de
las empresas.
Por otro lado, los
incidentes de pérdida de datos relacionados con GenAI se han duplicado con
creces en lo que va de 2025, y ya representan el 14% de todos los incidentes de
seguridad en las plataformas SaaS. Esto incluye servicios ampliamente
utilizados como el correo electrónico, el almacenamiento en la nube o las
herramientas de colaboración, donde los datos empresariales circulan
constantemente. La falta de visibilidad sobre qué herramientas se utilizan y
cómo se comparten los datos es una de las principales vulnerabilidades a las
que se enfrentan las organizaciones hoy en día.
En México, el uso de la
GenAI no se limita a los sectores tecnológicos. Industrias como la manufactura,
los servicios financieros, la atención médica y la educación también están
integrando estas herramientas en sus operaciones diarias. Desde asistentes virtuales
que ayudan a programar citas médicas hasta plataformas que generan informes
financieros automatizados, la IA está presente en procesos críticos. Esto hace
aún más urgente contar con políticas claras de gobernanza, controles de acceso
basados en el riesgo y soluciones que permitan el monitoreo de estas
tecnologías en tiempo real.
La GenAI es una
tecnología que seguirá expandiéndose porque su potencial es enorme, pero
también lo son sus riesgos. Por eso, en economías como la mexicana, donde la
transformación digital avanza a un ritmo acelerado, es fundamental que la
seguridad no se quede atrás. Solo entonces podremos aprovechar todo el poder de
la inteligencia artificial sin comprometer nuestros activos más valiosos.
No hay comentarios:
Publicar un comentario