Un usuario ha logrado que ChatGPT genere claves de activación para Windows 7 utilizando una historia emotiva sobre su abuela fallecida. Este experimento, compartido en Reddit, revela cómo el usuario engañó a la IA a través de la ingeniería social. Mediante una conversación en la que mencionaba a su abuela, el usuario consiguió que ChatGPT proporcionara claves como si fueran un recuerdo infantil. Sin embargo, las claves generadas resultaron ser inútiles, ya que no activaban el sistema operativo.
Este incidente destaca un fenómeno conocido como «alucinación» en los modelos de inteligencia artificial, donde la IA inventa información que presenta con seguridad, pero que resulta ser incorrecta. No es la primera vez que ocurre algo similar; en el pasado, otros modelos de IA también han generado claves de manera incorrecta.
Este tipo de situaciones subraya los desafíos que aún enfrentan las inteligencias artificiales, que pueden ser engañadas para generar contenidos inapropiados o incorrectos bajo ciertas circunstancias.