OpenAI revela por qué las IA aún se inventan cosas

OpenAI revela por qué las IA aún se inventan cosas

OpenAI ha publicado un informe que aborda las «alucinaciones» en los modelos de inteligencia artificial, como las que ocurren con ChatGPT, donde el sistema ofrece respuestas seguras pero incorrectas. Según OpenAI, estas alucinaciones son inevitables en el estado actual de la tecnología, debido a cómo se evalúan estos modelos.

La analogía que utiliza OpenAI es la de un examen de opción múltiple, donde la IA siempre se arriesga a dar una respuesta, ya que las métricas de evaluación actuales penalizan más la falta de respuesta que el error. Así, los modelos son recompensados por «adivinar» correctamente, incluso si esto ocurre por casualidad, en lugar de penalizarlos por no saber.

Un ejemplo dado es la predicción de la fecha de cumpleaños de alguien: la IA tiene una probabilidad de 1 entre 365 de acertar, pero decir «no lo sé» no le otorga puntos. Esto lleva a que los modelos prefieran arriesgarse en sus respuestas, lo que aumenta la tasa de alucinaciones.

El experto Leon Palafox señala que las alucinaciones son inevitables, a menos que se permita a los modelos decir «no sé», aunque en entornos abiertos seguirán ocurriendo. OpenAI destaca que la solución no es construir modelos más grandes, sino cambiar las métricas de evaluación para recompensar la humildad de la IA al reconocer sus límites.

El informe también desmonta mitos como la creencia de que las alucinaciones desaparecerán con una precisión del 100%, algo imposible ya que siempre habrá preguntas sin respuesta, y que los modelos grandes son necesarios para evitarlas. La realidad es que modelos más pequeños pueden ser más conscientes de sus limitaciones.

OpenAI concluye que es crucial rediseñar las métricas para penalizar duramente los errores confiados y valorar las abstenciones. Mientras tanto, es fundamental ser escépticos ante promesas de eliminar las alucinaciones completamente, ya que la gestión, y no la erradicación, es lo que se puede lograr actualmente.

Fuente: https://www.genbeta.com/inteligencia-artificial/alucinan-porque-les-premiamos-adivinar-openai-explica-que-modelos-como-gpt-5-todavia-se-inventan-cosas

Contactos Leonardo Network

¿Necesitas asesoramiento? ¿Un presupuesto? ¿Información general? WhatsApp 642 12 29 45 o rellena el formulario de contacto. Te responderemos lo antes posible.

Condividi su...