Para Gilson Magalhães, vicepresidente y
gerente general de Red Hat América Latina, la convergencia entre el
conocimiento humano y las máquinas llevará la tecnología al siguiente nivel; el
código abierto será el puente hacia esta sinergia.
La Inteligencia Artificial (IA), la
mayor estrella de esta década en lo que respecta a tecnología, seguirá
aumentando en los próximos años. Proyecciones de Gartner señalan que, para 2026, más
del 80% de las empresas habrán utilizado modelos de Inteligencia Artificial
Generativa (Gen AI) o implementado aplicaciones habilitadas para Gen AI en
entornos de producción. Sin embargo, el crecimiento también pone de relieve los
desafíos que enfrentan las organizaciones al lidiar con la IA: más del 30% de estos proyectos deberán
abandonarse a finales de 2025 debido a la baja calidad de los datos, un control
de riesgos inadecuado, poca percepción de valor y altos costos.
Para los expertos del mercado, el
elevado número de proyectos frustrados son el resultado de la creencia de las
empresas de que las nuevas tecnologías, como la IA, deberían actuar como una
solución mágica a todos los problemas. "Vivimos en una panacea de
desarrollo reciente en América Latina con la nube, y ahora vemos que la
historia se repite con la Inteligencia Artificial. Hay una emoción que, al
mismo tiempo, trae tensión y presión a los CIOs para que produzcan cualquier
cosa con esta tecnología, sin mucho análisis ni estrategia. Y definitivamente
este no es el mejor camino”, afirma Gilson
Magalhães, VP y General Manager de Red Hat para América Latina.
Para hacer frente a los desafíos de
sus elecciones pasadas, especialmente en lo que respecta a la seguridad y la
calidad de los datos, las organizaciones deben avanzar en los llamados agentes,
componentes de software más simples, que se conectarán a las aplicaciones
existentes para modernizarlas. Además, se espera que el mercado vuelva a las
aplicaciones predictivas de IA, y más de la mitad de los casos de IA se centran
en ofrecer personalización al cliente y optimización de la cadena de
suministro. “Las organizaciones dependerán de más plataformas AIOps para
reducir la deuda técnica y mejorar los resultados comerciales, y encontrarán en
las soluciones de código abierto la respuesta que necesitan para avanzar con
seguridad y eficiencia”, afirma.
La sinergia entre código abierto e
Inteligencia Artificial para impulsar el avance de las TI empresariales fue
tema central del principal evento de código abierto de América Latina, el Red
Hat Summit: Connect, que pasó por seis países y abordó las tendencias para el
futuro que deberían transformar una vez más el viaje digital de las
organizaciones. "En medio de todos los desafíos y predicciones para los
próximos años, ahora estamos hablando no sólo de IA, sino más bien de cómo
obtener el poder de la inteligencia humana, ayudado por el trabajo que su IA
puede hacer mejor, o más rápido, que posiblemente los humanos puedan
hacer", refuerza Magalhães.
En otras palabras, la respuesta a un
avance sostenible de la IA radica en
la convergencia de esta inteligencia con las habilidades y el conocimiento
humanos. "La Inteligencia Artificial ya es una realidad y el siguiente
paso es hacer que interactúe satisfactoriamente con el conocimiento humano.
Esto significa contar con herramientas de IA alineadas mejor para resolver los
procesos del día a día, automatizar el trabajo repetitivo y mejorar las
capacidades de los recursos humanos para tareas más estratégicas", señala.
Las herramientas de código abierto
son grandes aliadas en este camino. La estrategia de nube híbrida abierta
defendida por Red Hat es la puerta
de entrada a una IA abierta y
eficaz, respaldada por importantes socios como Google, AWS y Microsoft.
Líder mundial en soluciones
empresariales de código abierto, Red Hat
es parte de todas estas historias al ofrecer herramientas que satisfacen las
necesidades de cada organización, especialmente cuando se trata de IA. Red Hat OpenShift, obtuvo recientemente una versión específica para
IA. "Red Hat OpenShift AI es una herramienta MLOps tecnología escalable y flexible que permite crear y
lanzar aplicaciones de IA a escala en entornos de nube híbrida", afirma Magalhães.
Creado con tecnologías
de código abierto, Red Hat OpenShift AI
proporciona capacidades confiables y consistentes para probar, desarrollar y
entrenar modelos de IA, lo que
permite la preparación y adquisición de datos, así como el entrenamiento, el
ajuste y la entrega de modelos. La solución se integra con otra novedad de la empresa, el Red Hat® Enterprise Linux® AI, plataforma modelo base utilizada
para desarrollar, probar y ejecutar modelos de lenguajes a
gran escala (LLM) de la familia Granite para aplicaciones empresariales.
"Red Hat Enterprise Linux AI le permite
migrar entornos de nube híbrida, escalar sus flujos de trabajo de IA con Red Hat OpenShift® AI y
avanzar a IBM watsonx.ai con desarrollo adicional de IA empresarial, datos de
gestión y gobernanza de modelos. Y esto es muy importante en un momento en el
que es clara la necesidad de modelos de IA cada vez más pequeños y
especializados”, afirma el ejecutivo.
Según las previsiones de forrester, mientras que casi el 90% de los tomadores de decisiones
tecnológicas globales dicen que sus empresas aumentarán la inversión en
infraestructura, gestión y gobernanza de datos, los líderes tecnológicos
seguirán siendo pragmáticos al invertir en IA para maximizar el valor comercial
derivado de la tecnología. De cara a 2025, la transformación más significativa
de las inversiones se centrará en pequeños modelos de inteligencia artificial
(SLM, por sus siglas en inglés). Con menor costo, mayor asertividad y menos
posibilidades de alucinación, estos modelos también son más especializados y
pueden ser entrenados y ejecutados mucho más fácilmente.
En la práctica, comprender la sopa de
letras de los LLM y SLM es sencillo. Ambas siglas hacen referencia a tipos de
sistemas de IA entrenados para interpretar el lenguaje humano, incluidos los
lenguajes de programación. Los LLM a menudo pretenden emular la inteligencia
humana en un nivel muy amplio y, por lo tanto, están capacitados en una amplia
gama de grandes conjuntos de datos. Por lo tanto, pueden presentar las llamadas
"alucinaciones", respuestas potencialmente incorrectas, ya que no tienen
el afinamiento y la capacitación en el dominio para responder con precisión a
cada consulta.
Los SLM, por otro lado, normalmente
se entrenan en conjuntos de datos más pequeños adaptados a dominios
industriales específicos (es decir, áreas de especialización). Por ejemplo, un
proveedor de atención médica puede utilizar un chatbot con tecnología SLM y
entrenado en conjuntos de datos médicos para inyectar conocimiento de un
dominio específico en la consulta no experta de un usuario sobre su salud,
enriqueciendo la calidad de preguntas y respuestas. "¿Qué modelo es mejor?
Todo dependerá de los planes, recursos, y otros factores de cada organización.
Además de la elección, el código abierto es sin duda la clave que marcará la
diferencia", señala el experto.
Aunque la Inteligencia Artificial
sigue dominando los debates, se espera que para 2025 otros temas ganen fuerza
en la TI empresarial. La automatización y la informática estarán en
la agenda de las organizaciones públicas y privadas con un avance más acelerado
del Internet de las cosas (IoT). Además, la computación cuántica podría dar un
salto importante: la ONU, ha proclamado que 2025 será el Año Internacional de
la Ciencia y la Tecnología Cuántica, esperando que la investigación sobre esta
solución salga de laboratorios y obtenga aplicaciones más prácticas en la vida
cotidiana.
"La virtualización también tendrá un espacio de
crecimiento. Las mismas máquinas virtuales que fueron fundamentales para la
evolución de la computación en la nube ahora contribuyen al entrenamiento del
modelo AI/ML, con aislamiento y
reproducibilidad, escalabilidad, aceleración de hardware, flexibilidad en la
configuración del software y gestión y seguridad de los datos", explica Magalhães. Gartner señala que el 70% de las cargas de trabajo que
alimentan computadoras personales y servidores de centros de datos seguirán
utilizando virtualización basada en hipervisor hasta 2027.
Por el lado de las
telecomunicaciones, la apuesta está en la evolución de las redes 5G y 6G, más
rápidas y fiables, que impulsarán las ciudades inteligentes, los vehículos
autónomos y las tecnologías inmersivas. La preocupación por soluciones más
sostenibles también irá en aumento, y las empresas buscarán reducir su huella
de carbono, con innovaciones en tecnología solar, almacenamiento de baterías y
centros de datos sin emisiones de carbono. Las inversiones en ciberseguridad
completan la lista, con soluciones sólidas y descentralizadas para que las
organizaciones se protejan contra ataques crecientes, filtraciones de datos y
ransomware.
No hay comentarios:
Publicar un comentario