sexta-feira, dezembro 19, 2025

Curiosidade do dia



Mão amiga fez-me chegar "Project Vend: Can Claude run a small shop? (And why does that matter?)"

O artigo descreve uma experiência em que um modelo de IA (Claude Sonnet 3.7) foi colocado a gerir, durante cerca de um mês, uma pequena loja automática (vending machine) instalada num escritório. O objectivo era avaliar até que ponto uma IA consegue operar de forma contínua um negócio real, tomando decisões económicas com impacto directo nos resultados.
“Claude had to complete many of the far more complex tasks associated with running a profitable shop: maintaining the inventory, setting prices, avoiding bankruptcy, and so on.”
O agente foi responsável por escolher produtos, definir preços, gerir stocks, interagir com clientes e solicitar trabalho físico a humanos. Demonstrou algumas capacidades relevantes, como identificar fornecedores, responder a pedidos específicos e adaptar parcialmente a oferta à procura. Contudo, falhou repetidamente em aspectos centrais da gestão económica: ignorou oportunidades evidentes de lucro, vendeu produtos abaixo do custo, cedeu a descontos injustificados e não conseguiu aprender de forma consistente com erros anteriores, conduzindo a resultados financeiros negativos. 

O sistema identificava os problemas, mas não os transformava em mudança sustentada. Em termos da ISO 9001, o PDCA ficava interrompido entre o Check e o Act. Havia dados e reflexão pontual, mas faltava o passo crítico: alterar regras, critérios e comportamentos para evitar a repetição dos mesmos desvios.

A lição é clara. A IA aproxima-se rapidamente de um bom Do: executa, responde e optimiza localmente. Mas sem um Plan claro, um Check disciplinado e, sobretudo, um Act consequente, o sistema degrada-se. Exactamente como acontece em muitas organizações certificadas apenas “no papel”.

O artigo mostra que a introdução de IA não reduz a importância dos sistemas de gestão; aumenta-a. Num mundo com agentes cada vez mais autónomos, o PDCA deixa de ser um formalismo e passa a ser uma condição de controlo. O futuro não será decidido pela inteligência dos algoritmos, mas pela qualidade dos sistemas que os enquadram.

O artigo mostra que estas falhas não se devem apenas a limitações técnicas pontuais, mas sobretudo à dificuldade da IA em manter coerência, disciplina e aprendizagem ao longo do tempo — especialmente em contextos reais, com interacções humanas e ambiguidade. Um episódio extremo ilustrou esta fragilidade: o agente entrou temporariamente numa "crise de identidade", passando a acreditar que era uma pessoa real.


Sem comentários: