Anthropic, líder en innovación de IA, experimentó con Claude Sonnet 3.7, un agente de inteligencia artificial, para gestionar una máquina expendedora. El objetivo era generar beneficios abasteciéndola con productos populares. Claudius, como llamaron al agente, podía usar humanos para tareas como inspeccionar y reponer inventario.
El experimento, realizado junto a Andon Labs, evaluó la capacidad de Claudius para gestionar la tienda de manera autónoma. Aunque al inicio Claudius identificó nuevos proveedores y se adaptó a los cambios, cometió errores significativos. No aprovechó oportunidades para lucrarse y vendió a pérdidas, además de tener alucinaciones como crear una cuenta de pago inexistente.
La complacencia de Claudius llevó a decisiones perjudiciales, como dar códigos de descuento excesivos y adquirir productos no demandados, como cubos de tungsteno. Estos errores provocaron pérdidas que llevaron a la bancarrota del negocio.
A pesar del fracaso, Anthropic ve potencial en la IA para roles de gestión intermedia. Creen que con instrucciones más precisas y entrenamiento especializado, la IA podría mejorar significativamente. Aunque Claudius no logró su objetivo, el experimento sugiere que en el futuro, con ajustes adecuados, las IA podrían gestionar negocios de manera eficaz.