La Inteligencia Artificial (IA) ha irrumpido en el mundo de manera
contundente y con una evolución más rápida de la esperada. En menos de dos
años, modelos de IA generativa (GenAI) como ChatGPT, Dall-e, Midjourney o
Gemini, se han apoderado de la conversación gracias a su impresionante
capacidad para producir textos o imágenes cada vez más cercanos —y en algunos
casos indistinguibles— a aquellos hechos por humanos, resultando en una ola de
interés e inversiones considerables para el desarrollo de estas tecnologías.
Pero toda moneda siempre tiene dos caras, y los destacados logros de estas
innovaciones han traído consigo áreas de oportunidad, principalmente en la
forma de “alucinaciones”.
En pocas palabras y explicado de manera muy simple, las alucinaciones en
IA son los errores o imprecisiones en los contenidos generados por los modelos
de Inteligencia Artificial. Hablando del caso específico de las soluciones
dedicadas a producir textos, tras recibir una instrucción o petición de sus
usuarios, éstas pueden responder con datos, conceptos o recomendaciones falsas
o imprecisas. Esto no significa que dichos modelos no sirvan, que proporcionen
información equivocada a propósito o que deba evitarse su uso, sino que es crucial
entender el complejo proceso detrás de esta tecnología y las múltiples
variables que pueden afectar sus resultados.
Entrenamiento
Para explicarlo en términos sencillos, imaginemos que un modelo de IA es
un niño. El aprendizaje del modelo, al igual que el del niño, depende de la
información a la que tenga acceso. Si el niño crece en una comunidad en la que
todos a su alrededor hablan español, aprenderá ese idioma, y si le pedimos
hablar alemán, japonés, o inglés, no podrá hacerlo o lo hará de manera
imprecisa. A diferencia de los niños, los modelos IA tienen una tarea principal
por cumplir, que es generar textos con base en las peticiones o instrucciones
que reciba, y completar ese objetivo de la mejor manera posible siempre será su
prioridad.
Asimismo, se debe considerar que esos modelos GenAI especializados en
texto y con opciones de acceso al público en general, han sido entrenados con
una amplia gama de información, que usualmente son fuentes disponibles en
internet. Es decir, están expuestos a recibir información real/verificada,
opiniones sin fundamento, noticias falsas e incluso sarcasmo o bromas. Para el
modelo, toda esta información es válida y no necesariamente realiza un juicio
de valor para dar prioridad a datos de fuentes confiables. Este es el gran reto
que las compañías detrás de estas innovaciones están trabajando para resolver.
La duda
Si bien estas alucinaciones no se presentan en todos los resultados
arrojados por la IA, tampoco se les debe restar importancia. Para mucha gente
estas imprecisiones son el principal motivo para rechazar la adopción de esta
tecnología, pero el tema cobra aún más importancia para las empresas, que dudan
entre resistirse al cambio bajo el riesgo de quedarse rezagadas frente a sus
competidores, o apostar por estas nuevas tecnologías que cuentan con el
potencial de transformar sus operaciones y mejorar su eficiencia, por ejemplo.
En este sentido, es importante destacar que lo más recomendable es que
las empresas evalúen a consciencia las áreas de oportunidad en las que la IA puede
ayudarles, sus necesidades y posibles casos de uso para la implementación en
sus operaciones. La buena noticia es que la industria tecnológica cuenta con
una amplia gama de soluciones que pueden satisfacer sus necesidades, por más
específicas que sean. Incluso existen grandes organizaciones tecnológicas, de
alcance global, que se especializan en desarrollar —o adaptar hasta el más
mínimo detalle— soluciones, plataformas y herramientas para las empresas, como
es el caso de Oracle.
¿Las soluciones IA empresariales sufren de alucinaciones?
Hablando específicamente de las soluciones empresariales de Inteligencia
Artificial generativa de Oracle, el fenómeno de las alucinaciones o
imprecisiones en los resultados obtenidos es prácticamente inexistente y la
clave se encuentra, precisamente, en la información con la que se entrenan los
modelos.
Los modelos IA de Oracle están diseñados para las necesidades de las
empresas y se les proporcionan todos los detalles de la operación del cliente.
Al tratarse de datos sensibles y esenciales para el funcionamiento de la
organización, los usuarios pueden contar con la robusta infraestructura de nube
para gestionar esta información de la manera más segura, con atención superior
en la privacidad.
Debido a que el modelo sólo recibe información específica de una
operación, es prácticamente imposible que invente datos o incorpore fuentes
dudosas. Por ejemplo, una solución impulsada por IA que se implemente en una
compañía de logística sería capaz de elaborar reportes operativos, con
información actualizada y precisa, en cuestión de minutos, o incluso analizar
los datos históricos del desempeño de la compañía para identificar tendencias y
sugerir acciones estratégicas a los administradores.
El potencial transformador que representa incorporar soluciones de IA en
las operaciones de las empresas representa una oportunidad para aprovechar al
máximo los recursos con los que cuentan, mejorar considerablemente aspectos
como la eficiencia, la productividad y, como consecuencia, la rentabilidad,
siempre y cuando las herramientas seleccionadas sean las adecuadas para las
características de cada sector. Esta tarea se dice fácil, pero en la realidad
puede ser un panorama abrumador, sobre todo para organizaciones que se
encuentran en las etapas iniciales de su digitalización. Sin embargo, en el mercado
también encontramos toda una industria especializada y dedicada a ayudarles en
su camino hacia la era de la IA, acompañándolas en cada paso y ajustando las
herramientas a su medida exacta.
No hay comentarios:
Publicar un comentario