En la década de 1960 la filósofa británica
Philippa Foot planteó un experimento filosófico llamado “el dilema del tranvía”
que consiste en imaginar una persona al mando de un tranvía en rumbo de
colisión hacia un vehículo atorado en las vías, donde hay cinco personas
atrapadas. El conductor puede desviarse hacia una vía secundaria donde hay una
persona tendida sobre las vías. ¿Debe el conductor pasar encima de la persona
tendida para salvar a cinco personas o no hacer nada y con su inacción arrollar
a cinco individuos?
Este dilema tiene numerosas interpretaciones,
variaciones respuestas. Sin embargo, en todas ellas hay un elemento común: un
ser humano de carne y hueso toma la decisión y será responsable de lo que
suceda con el tranvía. ¿Qué pasa si en lugar de una persona es un agente de
inteligencia artificial (IA) quien está al mando?, ¿quién se hace responsable
de lo que haga un tranvía autónomo? Parece una pregunta digna de ciencia
ficción, pero a medida que más procesos y aparatos usan IA para tomar
decisiones y realizar acciones, la responsabilidad exigible a las decisiones de
agentes de IA comienza a convertirse en un tema de preocupación para gobiernos,
técnicos y expertos en áreas como la ética y el derecho.
Una de las primeras áreas de uso general de
la IA será dentro de vehículos autónomos. Desde 2015, ministros de transporte
en las siete naciones más desarrolladas del mundo junto con la Unión Europea
firmaron una declaración de principios donde se comprometen a coordinar sus
esfuerzos para crear reglas y estándares técnicos comunes para la conducción
autónoma de vehículos. Sin embargo Alemania es quizá el país con las reglas más
detalladas en cuanto a la conducta de vehículos, ordenándole a los creadores de
IA automotriz privilegiar la protección de la vida humana por encima de la
integridad de objetos inanimados y animales o prohibir que la IA de los vehículos
privilegien salvar vidas basados en características como la etnicidad, el
género o la propiedad del vehículo.
Las consecuencias del uso de IA por en
situaciones bélicas ha sido retratada dramáticamente por películas como
Terminator, en tanto errores de programación o de ejecución por parte de un
agente digital puede desencadenar masacres o borrar la humanidad del planeta.
Países como China, Rusia y los Estados Unidos han sido de los más entusiastas
al momento de incorporar IA en operaciones militares y en el horizonte se abre
la posibilidad de tanques y aviones que decidan ataques y bombardeos por sí
mismos. Estados Unidos es quizá el único país que tiene directrices públicas
para el uso de IA en el campo de batalla acotándola a situaciones donde su uso no
pueda provocar heridas o muertes.
Esto no es suficiente hoy cuando las
capacidades de la IA militar se incrementan rápidamente, por lo que en enero de
este año el Departamento de Defensa de los Estados Unidos solicitó la creación
de nuevas reglas para el uso de IA, abriendo la puerta a su uso en situaciones
de combate y sin supervisión humana. A su vez el Departamento de Defensa de la
India creó a inicios de este año un consejo que se encargará de analizar los
mecanismos en los cuales ese país integrará la tecnología en sus fuerzas armadas,
así como las reglas de uso durante situaciones de combate.
El uso de IA en el sector financiero es ya
una realidad cotidiana, aunque la regulación financiera no ha sido lo
suficientemente rápida para establecer reglas de uso por parte de bancos y
otras empresas de este sector. Singapur es de las primeras naciones cuya
autoridad financiera (Monetary Authority of Singapore) publicó este año un
documento para guiar el uso de esta tecnología por parte del sistema financiero
en ese país estableciendo siete principios rectores en el uso de esta
tecnología que van de la equidad de la IA al momento de tomar decisiones hasta
la transparencia hacia los clientes, haciéndoles saber que una decisión
financiera fue tomada por un agente de IA además de proveerle al cliente vías
para apelar la decisión del agente digital.
Finalmente aparece la cuestión más compleja:
dotar la IA de un conjunto de reglas éticas universales aplicables a toda
inteligencia digital sin importar su lugar de origen como sucede hoy con los
derechos humanos, comunes a todas las personas sin importar su origen. Un
reporte de la Universidad de Hong Kong publicado este año señala que la
Organización para la Cooperación y el Desarrollo Económico (OCDE) que anunció
la publicación de una serie de principios sobre AI adoptados por países
miembros de esta organización y otros adherentes estableciendo entre otras
cosas que la debe ser una fuerza benéfica para la sociedad, que debe ser
comprensible para todas las personas y que quienes desarrollen estos sistemas
deben ser sujetos de algún tipo de responsabilidad por su uso.
A su vez China, la otra gran potencia en el
desarrollo de IA publicó en mayo de este año un grupo de estándares éticos para
el uso de esta tecnología y que incluyen la necesidad de que su propósito sea
el beneficio de la humanidad, que esté controlada para evitar causar daños y
que su desarrollo sea compartido y abierto a todo mundo.
No es la primera vez que una tecnología
presenta el doble filo de la amenaza y el desarrollo de la humanidad: los
ataques contra Hiroshima y Nagasaki en 1945 pusieron al mundo ante la
posibilidad de una destrucción planetaria por armas nucleares. Acuerdos como el
Tratado de No Proliferación Nuclear y entidades como el Organismo Internacional
de Energía Atómica han contenido hasta hoy la amenaza del uso indiscriminado de
armas nucleares, promoviendo su uso pacífico como fuente de energía. Es posible
que la IA corra con una suerte similar, pero eso, solo el tiempo nos lo dirá.
+++
No hay comentarios:
Publicar un comentario