¿Qué
se vendrá en el universo del edge
computing?
Los expertos analizan seis cuestiones que los líderes de TI
necesitan comprender y abordar.
Si
bien ya se conocen muchos aspectos del
edge
computing, el
panorama general continúa evolucionando rápidamente. Por ejemplo,
el “edge computing” abarca los sistemas distribuidos de las
sucursales de tiendas minoristas que han existido durante décadas.
Este término también comprende todo tipo de sistemas informáticos
locales de fábricas y proveedores de telecomunicaciones, aunque de
una manera más conectada y menos propietaria de la que solía
predominar.
El
edge
computing
ayuda a los líderes empresariales y de TI a resolver problemas a
medida que proliferan los datos provenientes de los sensores y del
machine
learning.
Sin
embargo, aunque en algunas implementaciones de edge
computing se
perciban rastros de antiguas arquitecturas, también se observan
tendencias del edge
en desarrollo que son verdaderamente nuevas o al menos muy diferentes
de lo que existía anteriormente. Estas tendencias están ayudando a
los líderes empresariales y de TI a resolver problemas en sectores
que van desde el de telecomunicaciones al automotriz a medida que
proliferan los datos provenientes de los sensores y el machine
learning.
Las
tendencias del edge
computing
que debería tener en cuenta.
Los
expertos en edge
analizan seis tendencias a las que los líderes empresariales y de TI
deberían prestar atención en 2022:
1.
Las cargas de trabajo en el edge
aumentan
Uno
de los cambios importantes que estamos viendo es que, en el edge,
hay más informática y más almacenamiento. A menudo los sistemas
descentralizados existían más para disminuir la dependencia de los
enlaces de red que para realizar tareas que no podían hacerse en la
práctica en una ubicación central mediante comunicaciones
razonablemente confiables. Pero eso está cambiando.
El
IoT, por definición, siempre ha involucrado la recolección de
datos. No obstante, lo que supo ser un goteo se ha convertido en un
aluvión dado que los datos que necesitan las aplicaciones de machine
learning
(ML) fluyen de un sinnúmero de sensores. Pero aun cuando los modelos
de entrenamiento se desarrollen con frecuencia en un centro de datos
centralizado, la aplicación continua de esos modelos generalmente se
traslada al borde de la red. Esto reduce los requisitos de ancho de
banda de la red y permite accionar más rápidamente a nivel local,
como apagar una máquina en respuesta a una lectura anómala de un
sensor. El objetivo es aportar información para adoptar medidas en
el momento preciso.
2.
RISC-V va ganando terreno
Se
sabe que las cargas de trabajo que hacen un uso intensivo de los
datos y los recursos informáticos necesitan hardware en el cual
ejecutarse. ¿Por qué es intrigante? Así
lo explica
Yan Fisher, evangelizador global de tecnologías emergentes de Red
Hat:
“Lo que distingue a RISC-V es que su proceso de diseño y su
especificación son genuinamente abiertos. Su diseño refleja las
decisiones de la comunidad basadas en la experiencia y la
investigación colectivas.”
Este
enfoque abierto y el ecosistema activo que lo acompaña ayudan a
promover las ventajas del diseño de RISC-V en todos los sectores.
Calista Redmond, CEO de RISC-V International, comenta lo siguiente:
“Con este giro hacia el edge
computing,
observamos una gran inversión en RISC-V en todo el ecosistema, desde
empresas multinacionales como Alibaba, Andes Technology y NXP hasta
empresas emergentes como SiFive, Esperanto Technologies y GreenWaves
Technologies, que diseñan soluciones RISC-V innovadoras para el edge
y la AI”.
3.
Las redes de acceso de radio virtuales (vRAN) han pasado a ser un
caso de uso del edge
cada vez más importante
Una
red de acceso de radio es responsable de habilitar y conectar
dispositivos como smartphones o dispositivos del Internet de las
Cosas (IoT) con una red móvil.
Hanen
Garcia, gerente de soluciones de telecomunicaciones de Red Hat, e
Ishu Verma, evangelizadora de tecnologías emergentes de Red
Hat, observan
lo siguiente: “Un estudio
indica que la implementación de
soluciones de RAN virtuales (vRAN)/Open RAN (oRAN) logran reducir el
costo total de propiedad de la red hasta en un 44% en comparación
con las configuraciones de RAN distribuidas/centralizadas
tradicionales.” Además: “A través de esta modernización, los
proveedores de servicios de comunicaciones (CSP) pueden simplificar
las operaciones de red e incrementar la flexibilidad, disponibilidad
y eficiencia, al mismo tiempo que prestan servicio a un número de
casos de uso cada vez mayor.
4.
La escalabilidad impulsa enfoques operativos
Kris
Murphy, ingeniero de software sénior principal de Red Hat,
identifica cuatro pasos básicos que se deben dar para manejar la
escalabilidad: “Hay que estandarizar sin piedad, minimizar la
superficie operativa, priorizar los pulls
por sobre los pushes
y automatizar las pequeñas cosas”.
5.
El edge
computing
necesita certificación
En
vista de los escasos recursos disponibles en el borde, las opciones
pragmáticas que se deben tener en cuenta son las que requieren pocos
o nulos recursos locales. Una vez más, el enfoque que se adopte debe
ser sumamente escalable, de lo contrario, sus usos y beneficios se
verían muy reducidos. Una
de las opciones que se destaca es
el proyecto
Keylime.
“Se debería tener en cuenta las tecnologías como Keylime, capaces
de verificar que los dispositivos informáticos arranquen y continúen
en un estado de funcionamiento confiable en función de las
necesidades, para las grandes implementaciones, especialmente en
entornos con recursos limitados”, dice Ben Fischer, evangelizador
de tecnologías emergentes de Red Hat.
6.
La computación confidencial es más importante en el borde
La
seguridad en el borde requiere una preparación más exhaustiva. Los
recursos disponibles, como la conectividad de la red, la
electricidad, el personal, el equipamiento y la funcionalidad, varían
mucho, pero son muchos menos de los que habría disponible en un
centro de datos. Estos recursos limitados restringen las capacidades
de garantizar la disponibilidad y la seguridad. Además de cifrar el
almacenamiento local y las conexiones a sistemas más centralizados,
la computación confidencial ofrece la capacidad de cifrar los datos
mientras los utiliza el dispositivo de edge
computing.
Esto
protege los datos durante su procesamiento y el software que procesa
los datos evitando su captura o manipulación. Fischer sostiene que
“la computación confidencial en los dispositivos de edge
computing
se convertirá en la tecnología de seguridad base de la computación
en el borde debido a los recursos de borde limitados”.
Aplicaciones
disímiles entre industrias
La
diversidad de estas tendencias del edge
computing
refleja la diversidad y la escalabilidad de las cargas de trabajo en
el edge.
Existen algunos denominadores comunes —múltiples espacios físicos,
el uso de tecnologías nativas de la nube y de los contenedores, un
mayor uso de machine
learning.
Sin embargo, las aplicaciones de telecomunicaciones a menudo tienen
poco en común con los casos de uso industriales del IoT, que a su
vez difieren de aquellos de la industria automotriz. Pero,
independientemente de en qué sector se concentre, descubrirá que en
2022 ocurrirán cosas muy interesantes en el borde.