miércoles, 29 de noviembre de 2023

OpenAI estaría trabajando en una súperinteligencia peligrosa para la humanidad

 La Superinteligencia Artificial (ASI) es un tipo de IA hipotética. Básicamente es la inteligencia artificial imaginaria que no solo interpreta o comprende el comportamiento y la inteligencia humana, sino que las máquinas se volverán lo suficientemente conscientes de sí mismas que serán capaces de superarla. Con superinteligencia, las máquinas pueden pensar en las posibles abstracciones/interpretaciones que son simplemente imposibles de pensar para los humanos. Esto se debe a que el cerebro humano tiene un límite para la capacidad de pensar que está restringida a los miles de millones de neuronas.

La ASI sería muchísimo mejor en todo lo que el humano haga, ya sea en matemáticas, ciencias, artes, deportes, medicina… y tendría una mayor memoria con una capacidad más rápida para procesar y analizar situaciones, datos y sentimientos

Q*, la súperinteligencia de Open AI

El fabricante de ChatGPT ha hecho progresos en Q* (pronunciado Q-Star), que algunos creen internamente que podría ser un gran avance en la búsqueda de la superinteligencia.

Gracias a sus enormes recursos informáticos, el nuevo modelo fue capaz de resolver ciertos problemas matemáticos. Aunque solo realiza operaciones matemáticas al nivel de los estudiantes de primaria.

Los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, como en ChatGPT.Pero conquistar la capacidad de hacer cálculos matemático implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana.

Según Reuters, en su carta al consejo, los investigadores señalaron las proezas de la IA y su peligro potencial. Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas superinteligentes, si se planteasen, por ejemplo, que les interesa la destrucción de la humanidad. En el consejo de OpenAI había dos personas muy sensibles a esos riesgos, que han dimitido como parte del acuerdo para el retorno de Altman.

Ver más: La expansión de la IA es imparable

Ver más: ¿Es importante para las empresas la adopción de la IA?

Ver más: 54.7% de las PyMEs mexicanas ya utilizan IA generativa

No hay comentarios:

Publicar un comentario