Por: Rodrigo Ramele, ingeniero en Innovación y Tecnologías Emergentes de Baufest.
Las
máquinas no son capaces de determinar qué es “bueno” o “malo”. Por el
contrario, esa responsabilidad siempre debe mantenerse en los seres
humanos que las usan, crean y programan, a fin de que sus acciones
automatizadas para cumplir con alguna o varias tareas, siempre se
ejecuten bajo un marco ético regulatorio.
Precisamente, este es uno de los temas que ha creado un gran debate en
torno a la robótica: con el avance de la tecnología, ¿llegará el punto
en que estos artefactos tengan la capacidad de determinar su propio
marco ético?
Pero ¿qué son los robots desde esta perspectiva? Se los considera
“computadoras con la capacidad de percibir, analizar y actuar”, además
de que tienen una “corporización” física en el mundo real y cierto nivel
de autonomía. Es decir, algo muy cercano a lo que hemos leído o visto
en los relatos o cintas de ciencia ficción que los ilustran como
máquinas inteligentes.
Al servicio de la humanidad
La discusión sobre qué puede ser ético para estos aparatos lleva 80
años. Las tres leyes de la robótica de Isaac Asimov (uno de los autores
de ciencia ficción y divulgación científica más destacados) son bien
conocidas por los aficionados a los relatos futuristas. Mediante sus
postulados redactados en 1942, se iniciaron los esfuerzos por establecer
la convivencia entre las máquinas y los seres humanos:
- Un robot no dañará a una persona; o, por inacción, no permitirá que sufra daño.
- Un robot obedecerá las órdenes que le sean dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
- Un robot protegerá su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley.
A
ocho décadas de estos enunciados, los primeros indicios de intentos de
regulación comienzan a hacer su aparición. El año pasado, el Ministerio
de Ciencia y Tecnología de China publicó un código ético que pretende
regular los modelos de Inteligencia Artificial (IA) existentes o en
desarrollo. Por su parte, Europa tenía un prototipo de reglamento cuyo
objetivo era establecer lineamientos para el desarrollo de una
inteligencia artificial confiable. De esta forma la nación asiática dio
un paso adelante en línea con su estrategia de liderar esta tecnología.
La guía del país oriental prioriza el “pleno poder de decisión’” de los
humanos respecto a las máquinas, muy en línea con las leyes de la
robótica de Asimov.
De acuerdo con el periódico “The South China Morning Post” el documento
elaborado por el gobierno chino “Especificaciones Éticas para
Inteligencias Artificiales de Nueva Generación” propone “asegurarse que
la IA siempre esté bajo el control de los seres humanos” y que éstos
tengan “pleno poder de decisión” sobre ésta.
El postulado describe seis principios básicos para los sistemas de IA,
incluida la garantía de que sean “controlables y confiables”. A su vez,
los otros puntos abarcan el uso de recursos digitales para:
- Mejorar el bienestar humano.
- Promover la equidad, la transparencia y la justicia.
- Proteger la privacidad y la seguridad.
- Aumentar la educación ética.
Cambios obvios
En lo inmediato, esta disposición responde a la necesidad de establecer un marco regulatorio para los algoritmos de recomendación de contenido de Internet, basados plenamente en IA, con los cuales es posible segmentar la publicidad que aparece en buscadores y mails.
Como empresa que impulsa la transformación digital y la innovación, entendemos que esta reglamentación es parte de la evolución hacia un desarrollo y comercialización más responsable de la tecnología en todo el mundo.
Por supuesto, mientras nuevas o mejores soluciones digitales aparezcan, será necesario tener regulaciones más precisas en torno a cómo las compañías utilizan modelos como el de la IA o la automatización en general.
Así, mientras estos temas se debaten, las empresas de todos los sectores deberán preocuparse por entender cuáles son las reglas que especifican el uso de este tipo de tecnología y cómo impactan en la relación con sus clientes y en la sociedad en general.
Como suele ocurrir con la mayoría de las tendencias, seguramente pronto América Latina comenzará a revisar y regular la ética de la IA. Con el tiempo lo descubriremos.
No hay comentarios:
Publicar un comentario