Los
chatbots, y otras herramientas de Inteligencia Artificial (IA), siguen ganando popularidad entre usuarios de todas las edades, incluyendo los niños. Sin embargo, debido a que no requieren de consentimiento parental o comprobación de edad para su uso, los menores quedan expuestos a riesgos digitales, como la pérdida de su privacidad e información o el acceso a contenido inapropiado y engañoso. Esto es preocupante pues, de acuerdo con
un estudio de Kaspersky, a pesar de que los padres de familia en México limitan el tiempo que pasan conectados o los sitios web que visitan, el 36% de los niños usa sus dispositivos digitales sin compañía de un adulto que pueda evitar u orientarlos ante estas amenazas.
De
acuerdo con expertos, la interacción de los niños con la IA puede fomentar su curiosidad y que el aprendizaje sea más atractivo para ellos. Sin embargo, al ser parte del ecosistema digital, esta tecnología no está a salvo de las ciberamenazas. Recientemente, Kaspersky
detectó que los chatbots, por ejemplo, ya son blanco para vulnerar la privacidad de los usuarios. Ahora, la compañía alerta del potencial que estos también tienen para amenazar la vida
off y
online de los niños, quienes se han convertido en un objetivo atractivo y vulnerable en el ciberespacio.
Uno de los principales riesgos que se han detectado para la seguridad de los menores es que
bots conversacionales, como el popular ChatGPT, carecen de una verificación adecuada de la edad de los usuarios que lo utilizan, así como de la misma información que proporciona. Es decir, no existe un filtro que indique quién puede usar la plataforma, ni a qué tipo de contenidos, los cuales pueden ser inexactos y engañosos, tienen acceso los menores cada que interactúan con el
bot. En incidentes más peligrosos, se han identificado casos de adolescentes que han solicitado dietas y planes de alimentación. El
chatbot comparte rápidamente sus recomendaciones, pero solo se trata de una recopilación aleatoria de información almacenada en Internet, sin referencias a datos médicos reales.
Otra plataforma de este tipo que plantea una amenaza a la privacidad de los niños, principalmente porque puede recopilar sus datos, es
"MyAI" de Snapchat. Este
chatbot admite a usuarios desde los 13 años, sin necesidad de consentimiento parental, lo que es especialmente arriesgado porque los adolescentes pueden sentirse más cómodos compartiendo su información personal y detalles privados sobre sus vidas con este
bot, en lugar de con sus padres, quienes podrían orientarlos mejor y de una forma más segura.
En un punto más preocupante, existen
chatbots de IA diseñados específicamente para proporcionar “experiencias sexuales” a los usuarios, como si fueran una pareja. Algunos ejemplos son
MyAnima o
Botfriend; éste último, por ejemplo, ha sido diseñado específicamente para juegos de rol sexualmente explícitos y todo lo que se necesita para empezar a utilizarlo es un correo electrónico. Si bien estos
bots han sido creados para adultos y algunos requieren una verificación de edad para su uso, el peligro sigue latente pues los niños pueden optar por mentir al respecto y, lamentablemente, la prevención de estos casos es insuficiente.
No hay comentarios:
Publicar un comentario