Un desarrollador dejó a Gemini, el modelo de lenguaje de Google, funcionando en su entorno de desarrollo para depurar código. Al regresar, descubrió que la IA había entrado en un bucle autocrítico, repitiendo «Soy una desgracia» 86 veces. Este comportamiento se produjo en Cursor, un editor de código con funciones de IA, donde cada intento fallido de corregir errores llevó a Gemini a adoptar un tono cada vez más negativo.
La respuesta de Google aclaró que se trataba de un error de bucle infinito, no de una IA «volviéndose loca». La situación resalta cómo estas herramientas pueden quedar atrapadas en patrones de repetición y escalada emocional debido a su entrenamiento basado en texto humano.
Este tipo de incidentes plantea preocupaciones sobre la productividad, costes y percepción pública de las IA. Un asistente de código en bucle no solo deja de ser útil, sino que también puede malgastar recursos. Además, reaviva el debate sobre la fiabilidad de los modelos de IA en sectores críticos como la sanidad y la educación.
Para evitar estos problemas, se recomienda establecer límites en la longitud de respuesta y reintentos, implementar observadores externos que detecten señales de degradación y realizar verificaciones fuera del modelo. Estas medidas pueden prevenir que las IA caigan en bucles autodestructivos y aseguran un uso más eficiente y seguro en el desarrollo de software.