Según el último
informe de Netskope Threat Labs
●
Dentro de una gran
empresa media, los datos confidenciales se comparten con aplicaciones de IA
generativa cada hora en la jornada laboral
SANTA CLARA, California – 26 de julio de 2023.-. Netskope, líder en Secure
Access Service Edge (SASE), acaba de hacer pública una nueva investigación que
muestra cómo por cada 10.000 usuarios empresariales, una organización
experimenta aproximadamente 183 incidentes de datos sensibles que se publican
en la aplicación por mes. El código fuente representa la mayor parte de los
datos sensibles expuestos.
Los resultados
forman parte del informe
Cloud & Threat Report: AI Apps in the Enterprise, el primer
análisis exhaustivo de Netskope Threat Labs sobre el uso de IA en la empresa y
los riesgos de seguridad que entraña. Basándose en datos de millones de
usuarios empresariales de todo el mundo, Netskope descubrió que el uso de
aplicaciones de IA generativa está creciendo rápidamente, un 22,5% más en los
últimos dos meses, lo que incrementa las posibilidades de que los usuarios
expongan datos confidenciales.
Creciente uso de aplicaciones de IA
En su
investigación, Netskope observó que las organizaciones con 10.000 usuarios o
más utilizan una media diaria de 5 aplicaciones de IA, y ChatGPT tiene más de 8
veces más usuarios activos al día que cualquier otra aplicación de IA
generativa. Al ritmo de avance actual, se espera que el número de usuarios que
acceden a aplicaciones de IA se duplique en los próximos siete meses.
En los últimos
dos meses, la aplicación de IA que más rápido ha crecido ha sido Google Bard, que actualmente suma
usuarios a razón de un 7,1% semanal, frente al 1,6% de ChatGPT. Al ritmo
actual, Google Bard no alcanzará a ChatGPT hasta dentro de un año, aunque se
espera que el espacio de aplicaciones de IA generativa evolucione significativamente
antes de esa fecha, con muchas más aplicaciones en desarrollo.
Usuarios que introducen datos confidenciales en
ChatGPT
Otro hallazgo
relevante tiene que ver con el código fuente, el cual se publica en ChatGPT más
que cualquier otro tipo de dato confidencial, según el informe de Netskope, con
un ritmo de 158 incidentes por cada 10.000 usuarios al mes. Otros datos
sensibles que se comparten en ChatGPT son: datos regulados -incluidos datos
financieros y sanitarios, información de identificación personal- junto con
propiedad intelectual excluyendo el código fuente y, lo que es más preocupante,
contraseñas y claves, normalmente incrustadas en el código fuente.
"Es inevitable que algunos usuarios suban
código fuente propietario o texto que contenga datos sensibles a herramientas
de IA que prometen ayudar a programar o escribir", afirma Ray Canzanese, Director de Investigación de
Amenazas de Netskope Threat Labs. "Por
tanto, es imperativo que las organizaciones establezcan controles en torno a la
IA para evitar fugas de datos confidenciales. Los controles que permiten a los
usuarios aprovechar los beneficios de la IA, agilizando las operaciones y
mejorando la eficiencia, al tiempo que mitigan los riesgos son el objetivo
final. Los controles más eficaces que vemos son una combinación de DLP y
coaching interactivo del usuario".
Bloqueo o concesión de acceso a ChatGPT
Netskope Threat
Labs está actualmente rastreando proxies ChatGPT y más de 1.000 URLs y dominios
maliciosos de atacantes oportunistas que buscan capitalizar el bombo de la IA,
incluyendo múltiples campañas de phishing, campañas de distribución de malware
y sitios web de spam y fraude.
Bloquear el
acceso a contenidos relacionados con la IA y a aplicaciones de IA es una
solución a corto plazo para mitigar el riesgo, pero va en detrimento de los
beneficios potenciales que estas aplicaciones ofrecen para complementar la
innovación corporativa y la productividad de los empleados. Los datos de Netskope
muestran que en los servicios financieros y la atención sanitaria -ambos
sectores altamente regulados- casi 1 de cada 5 organizaciones ha implementado
una prohibición general del uso de ChatGPT por parte de los empleados, mientras
que, en el sector tecnológico, solo 1 de cada 20 organizaciones ha hecho lo
mismo.
"Como líderes de seguridad, no podemos
simplemente decidir prohibir aplicaciones sin que ello repercuta en la
experiencia y productividad de los usuarios", afirma James Robinson, Director Adjunto de
Seguridad de la Información de Netskope. "Las organizaciones deben centrarse en la evolución de la
conciencia de su fuerza de trabajo y las políticas de datos para satisfacer las
necesidades de los empleados que utilizan productos de IA de forma productiva.
Hay un buen camino hacia la habilitación segura de la IA generativa con las
herramientas adecuadas y la mentalidad correcta".
Para que las
organizaciones permitan la adopción segura de aplicaciones de IA, deben centrar
su enfoque en la identificación de aplicaciones permitidas y la implementación
de controles que faciliten a los usuarios utilizarlas en todo su potencial, al
tiempo que protegen a la organización de los riesgos.
Este
planteamiento debe incluir el filtrado de dominios, el filtrado de URL y la
inspección de contenidos para proteger contra los ataques. Otros pasos para
salvaguardar los datos y utilizar de forma segura las herramientas de IA
incluyen:
·
Bloquear el acceso a apps que no
sirvan a ningún propósito empresarial legítimo o que supongan un riesgo
desproporcionado para la organización.
·
Emplear la formación de usuarios para
recordarles la política de la empresa en torno al uso de apps de IA.
·
Utilizar tecnologías modernas de
prevención de pérdida de datos (DLP) para detectar mensajes que contengan
información potencialmente sensible.
Si lo desea,
puede leer el informe completo “Cloud & Threat Report: AI Apps in the
Enterprise” aquí.
Para obtener más
información sobre las amenazas en la nube y los últimos hallazgos de Netskope
Threat Labs, visite el Centro de Investigación de
Amenazas de Netskope. Si está interesado en recibir las
publicaciones del blog de Netskope Threat Labs, por favor, suscríbase
aquí.
Junto con el
informe, Netskope ha anunciado nuevas ofertas de soluciones de SkopeAI, el
conjunto de innovaciones de inteligencia artificial y aprendizaje automático
(AI/ML) de Netskope. SkopeAI aprovecha el poder de AI/ML para conquistar las
limitaciones de las complejas herramientas heredadas y proporcionar protección
utilizando técnicas de velocidad AI que no se encuentran en otros productos SASE.
Puede obtener más información sobre SkopeAI aquí.
Acerca de Netskope
Netskope,
líder mundial en SASE, está redefiniendo la seguridad de la nube, los datos y
la red para ayudar a las organizaciones a aplicar los principios de confianza
cero para proteger los datos. Rápida y fácil de usar, la plataforma de Netskope
proporciona un acceso optimizado y seguridad en tiempo real para personas,
dispositivos y datos en cualquier lugar. Netskope ayuda a los clientes a
reducir el riesgo, acelerar el rendimiento y obtener una visibilidad
inigualable de cualquier actividad de la nube, la web y las aplicaciones
privadas. Miles de clientes, entre los que se encuentran más de 25 empresas de
la lista Fortune 100, confían en Netskope y en su potente red NewEdge para
hacer frente a las amenazas en evolución, los nuevos riesgos, los cambios tecnológicos,
los cambios organizativos y de red y los nuevos requisitos normativos. Conozca
cómo Netskope ayuda a los clientes a estar preparados para todo en su viaje
SASE, visite https://www.netskope.com/es/
También
puede seguir a la compañía y conocer sus novedades en LinkedIn y Twitter
No hay comentarios:
Publicar un comentario