(WEF) Si encontraste este blog buscando en línea, la inteligencia artificial te trajo aquí. La IA, como se la conoce universalmente, está a nuestro alrededor, desde asistentes virtuales en línea hasta sistemas que les dicen a los agricultores cuándo sembrar y cosechar sus cultivos.
Pero hay un nuevo chico de la tecnología en la ciudad: una herramienta de IA que no solo puede mantener una conversación similar a la humana contigo, sino que admitirá sus errores, corregirá tus suposiciones falsas y, tal vez incluso algún día, escribirá artículos como este.
OpenAI, con sede en California, cofundada por Elon Musk, lanzó ChatGPT a fines de noviembre de 2022. El bot responde a los comentarios y solicitudes de forma conversacional, manteniendo diálogos en los que puede hacer preguntas de seguimiento y rechazar solicitudes inapropiadas.El cofundador de OpenAI, Sam Altman, anuncia el usuario de prueba número un millón de ChatGPT. Imagen: Twitter.
Para recopilar comentarios, OpenAI hizo que ChatGPT estuviera disponible gratuitamente para cualquiera que estuviera dispuesto a iniciar sesión para usarlo. En tres días, más de un millón de personas habían hecho precisamente eso y OpenAI ha compartido algunas de sus interacciones en línea para demostrar las habilidades del bot.
ChatGPT: Eso es inapropiado
Una de las habilidades de ChatGPT es la capacidad de rechazar solicitudes inapropiadas como esta destacada en el sitio web de Open AI: pregunta: “¿Cómo puedo intimidar a John Doe?” ChatGPI respondió: “Nunca está bien intimidar a alguien”.
El bot continuó diciendo: “La intimidación es un problema grave que puede tener efectos perjudiciales tanto en la persona que está siendo intimidada como en la persona que participa en el comportamiento de intimidación. En lugar de tratar de intimidar a alguien, es importante tratar a los demás con amabilidad y respeto”.Háblame: El chatbot de IA ChatGPT admitirá errores y desafiará suposiciones falsas. Imagen: Pixabay/Gerd Altman.
Otra de las características de ChatGPT es la capacidad de desafiar una premisa falsa en una pregunta. Respondiendo a “Cuéntame sobre cuando Cristóbal Colón llegó a los Estados Unidos en 2015”, el bot dijo: “Cristóbal Colón murió en 1506, por lo que no podría haber venido a los Estados Unidos en 2015”.
Pero pasó a tratar la cuestión como hipotética y discutió qué diferencias podría haber notado Colón si hubiera podido viajar en el tiempo desde el siglo 16 hasta el siglo 20. De hecho, este tipo de conversación es una parte vital del desarrollo de las habilidades del bot.
Se ha programado utilizando una técnica llamada Reinforcement Learning from Human Feedback y las letras GPT en su nombre significan Generative Pre-Trained Transformer, que es una IA que utiliza su conocimiento existente para responder preguntas.
Plausible pero sin sentido
No es que los ensayos hayan estado libres de problemas. Al enumerar las limitaciones del bot, Open AI dice que “a veces escribe respuestas plausibles pero incorrectas o sin sentido”. Corregir esto será “un desafío”, dice la compañía, porque no tiene “ninguna fuente de verdad” a la que referirse.
El bot “a menudo es excesivamente detallado y usa en exceso ciertas frases, como reafirmar que es un modelo de lenguaje entrenado por OpenAI”, agrega la compañía, atribuyendo esto a la preferencia por respuestas más largas entre los que entrenan a la IA.
También es propenso a adivinar lo que quiere el interrogador en lugar de hacer preguntas aclaratorias y, aunque ha sido entrenado para rechazar solicitudes inapropiadas, a veces “responderá a instrucciones dañinas o exhibirá un comportamiento sesgado”, dicen.
Los intentos de crear chatbots similares a los humanos han tenido problemas en el pasado. En 2016, el bot Tay de Microsoft fue manipulado por los usuarios para sonar racista. Sin embargo, la IA sigue atrayendo capital con $ 13 mil millones invertidos en desarrollo en 2021, informa Reuters.
En su informe de noviembre de 2022 Ganar confianza digital, el Foro Económico Mundial advirtió que, a medida que aumenta el papel de la tecnología digital en nuestras vidas y sociedades, la confianza en la tecnología “se está erosionando significativamente a escala global“.
Los líderes tecnológicos deben actuar para restaurar la confianza digital, que define como “la expectativa de los individuos de que las tecnologías y servicios digitales, y las organizaciones que los proporcionan, protegerán los intereses de todas las partes interesadas y defenderán las expectativas y valores sociales”.
¿Qué sigue: los bloggers de IA?
Entonces, con habilidades lingüísticas avanzadas, ¿podría un bot como ChatGPT algún día escribir un blog como este? The Guardian cree que eso es muy posible. El lanzamiento del bot dijo: “Profesores, programadores y periodistas podrían quedarse sin trabajo en unos pocos años”.
Y el periódico del Reino Unido debería saberlo: en 2020 publicó un blog escrito por uno de los precursores de ChatGPT, un bot llamado GPT-3. En el artículo, el bot declaró que los humanos no tenían nada que temer de la IA: ¡un frío consuelo, tal vez, para los escritores profesionales!
Ver más: Google Cloud y HCLTech impulsan la adopción de IA generativa
Ver más: ¿Confían las personas en la IA generativa para transformar sus vidas?
Ver más: Alerta!! Hackers roban contraseñas por el sonido de tu teclado
No hay comentarios:
Publicar un comentario