Ciudad de México, México – ESET,
compañía líder en detección proactiva de amenazas, advierte que si bien
el futuro es prometedor para cada uno de los campos dónde puede ser
aplicada la inteligencia artificial generativa, y con grandes
expectativas, existen riesgos vinculados a la adopción de esta nueva
tendencia.
Los
modelos tradicionales de Inteligencia Artificial se basan en modelos
estadísticos que reconocen patrones a partir de datos existentes y son
más aprovechados para contextos analíticos y predictivos. En el auge de
la inteligencia artificial, se creó una nueva categoría llamada generativa que tiene
el potencial de (re)construir o (re)producir contenido proveniente de
algún texto, imagen, video, audio o código fuente, tan verosímil como el
usuario lo permita. Los modelos generativos pueden producir
nuevos datos (artificiales) usando datos reales (alimentados por el
usuario) y crear información nueva; aquel horizonte que existía hasta
hace un par de años solo en los libros de ciencia ficción o las
películas va acercándose cada vez más a la realidad.
La
IA Generativa reside en el ciberespacio y, por consecuencia, existen
riesgos asociados que pueden afectar tanto a personas como empresas o
gobiernos, ESET identifica principalmente 5:
1. Moderación de contenidos:
algunas de las redes sociales, sitios web o aplicaciones no son
legalmente responsables, o son muy ambiguos, en lo que refiere a los
contenidos subidos por sus usuarios, como ideas o publicaciones hechas
por terceros o subyacentes, ni el contenido generado por IA: aun cuando
cuentan con términos de uso, normas de comunidad y políticas de
privacidad que protejan los derechos de autor, hay un vacío legal que
sirve de blindaje para los proveedores ante una violación de derechos de
autor.
El usuario cuenta con un
fácil acceso y una enorme disponibilidad de herramientas de IA
Generativa que son poco claras, incluso contradictorias, en sus
políticas de uso e implementación.
2. Infracción de los derechos de autor e imagen:
en los Estados Unidos, en mayo 2023, una Huelga del Sindicato de
Guionistas, comenzó una serie de conflictos al que se le unieron en
julio del mismo año el Sindicato de Actores en Hollywood. Las
principales causas de este movimiento se debieron a la petición de un
aumento salarial derivado del auge de las plataformas digitales, ya que
hubo un incremento en la demanda/creación del contenido y buscaban que
las ganancias fueran repartidas proporcionalmente entre
guionistas/actores y las grandes compañías.
Otro
motivo fue el abuso de la IA Generativa por parte de estas compañías
para producir contenido sin el consentimiento del actor o actriz de usar
su rostro y voz para fines comerciales, por lo que solicitaron un nuevo
contrato que los protegiera de la explotación de su identidad y talento
sin su consentimiento ni remuneración para esta tecnología. La
originalidad de algún contenido independientemente de la fuente, con la
llegada de la IA Generativa cada vez parece ser más difusa. En este
caso, muchos derechos de autor y permisos de imagen fueron ignorados por
grandes compañías, generando una enorme molestia y como consecuencia de
esto Estados Unidos optó por implementar recursos legales que
protegieran a ambas partes.
3. Privacidad:
para que los modelos de IA Generativa puedan funcionar correctamente
necesitan de grandes volúmenes de datos para ser entrenados, pero ¿qué
sucede cuando este volumen puede obtenerse de cualquier fuente pública
como videos, audios, imágenes, textos o códigos fuente sin el
consentimiento del titular? Es aquí donde, según ESET, las plataformas,
aplicaciones y redes sociales debieran apegarse al marco normativo sobre
la privacidad de datos de cada país en caso de existir, de lo contrario
apoyarse Reglamento General de Protección de Datos (GDPR) del
Parlamento Europeo que ya incluye una sección para la IA.
4. Cuestiones éticas:
aquellos países donde las regulaciones en materia de IA son escasas o
nulas, son aprovechadas por algunos usuarios para fines nada éticos como
la suplantación de identidad (voz, imagen o video) para crear perfiles
falsos que usan para cometer fraude/extorsión a través de alguna
plataforma, aplicación o red social, o también lanzar campañas de
phishing sofisticadas o estafas del tipo catfishing.
5. Desinformación:
aprovechando este tipo de IA las prácticas de difusión de noticias
falsas en plataformas y redes sociales se ven mejoradas. La viralización
de estos contenidos engañosos generados llega a perjudicar la imagen de
alguna persona, comunidad, país, gobierno o empresa.
“La
IA Generativa presenta riesgos particulares que deben abordarse de
manera cuidadosa para garantizar su uso ético y seguro. Estos riesgos
incluyen desde la moderación del contenido que suben los usuarios, hasta
aquel engañoso, sesgado o perjudicial para evitar la manipulación de
información.”, menciona David González Cuautle, Investigador de Seguridad Informática de ESET Latinoamérica.
Al considerar estos riesgos, desde ESET señalan que es esencial implementar estrategias preventivas y correctivas, tales como:
- Filtrado y moderación efectiva:
sesarrollar sistemas de filtrado y moderación robustos que puedan
identificar y eliminar contenido inapropiado, engañoso o sesgado
generado por modelos de IA Generativa. Esto ayudará a mantener la
integridad de la información y a prevenir posibles consecuencias
negativas.
- Entrenamiento con datos éticos y diversificados:
garantizar que los modelos de IA Generativa se entrenen con conjuntos
de datos éticos, imparciales y representativos. La diversificación de
los datos contribuye a reducir sesgos y a mejorar la capacidad del
modelo para generar contenido más equitativo y preciso.
- Transparencia en la regulación del contenido:
establecer regulaciones que permitan a los usuarios comprender cómo se
genera el contenido, el tratamiento que reciben los datos y las
implicaciones que puede llegar a tener en caso de no cumplir.
- Evaluación continua de la ética y la calidad:
implementar mecanismos de evaluación continua para monitorear la ética y
la calidad del contenido generado. Estos mecanismos pueden incluir
auditorías regulares, pruebas de robustez y colaboración con la
comunidad para identificar y abordar posibles problemas éticos.
- Educación y conciencia pública:
promover la educación y la conciencia pública sobre los riesgos
asociados con la IA Generativa. Fomentar la comprensión de cómo
funcionan estos modelos y cuáles son sus posibles impactos permitirán al
usuario participar activamente en la discusión y en la exigencia de
prácticas éticas por parte de los desarrolladores y empresas.
-
Acerca de ESET
Desde
1987, ESET® desarrolla soluciones de seguridad que ayudan a más de 100
millones de usuarios a disfrutar la tecnología de forma segura. Su
portfolio de soluciones ofrece a las empresas y consumidores de todo el
mundo un equilibrio perfecto entre rendimiento y protección proactiva.
La empresa cuenta con una red global de ventas que abarca 180 países y
tiene oficinas en Bratislava, San Diego, Singapur, Buenos Aires, México
DF y San Pablo.
No hay comentarios:
Publicar un comentario