Além disso, os projectos de TI ainda não assentam em padrões profissionais maduros: muitos responsáveis de projecto não têm formação formal, e quem decide frequentemente não domina a tecnologia. Estes projectos implicam mudanças profundas na forma de trabalhar das organizações, o que desencadeia resistências internas e conflitos políticos.
O planeamento apressado, a excessiva personalização e a indefinição de responsabilidades agravam ainda mais o risco. Como mostra o estudo de Flyvbjerg, quando um projecto de TI corre mal, tende a correr muito mal — com derrapagens massivas e impacto sistémico.
Qual a implicação disto para os projectos de inteligência artificial (IA)?
A principal implicação para os projectos de IA é que estes estão expostos aos mesmos riscos estruturais dos projectos de TI tradicionais — mas em grau ainda mais elevado.
Porquê?
Porque a IA é uma tecnologia ainda mais nova e menos compreendida. Muitos dos decisores não têm literacia técnica suficiente para avaliar o que é viável, o que é seguro ou o que faz sentido implementar. Isso favorece decisões precipitadas e expectativas desajustadas.
Porque os projectos de IA são, por natureza, ainda mais abstractos. Não há um "produto final" claramente visível ou testável até fases tardias. Isto dificulta o controlo, favorece alterações constantes e torna o risco de "falhar em silêncio" mais provável.
Porque a IA altera profundamente a forma como as pessoas trabalham. Ao contrário de um novo software de gestão ou uma nova máquina de produção, a IA mexe com a autonomia, os processos de decisão e até com a identidade profissional das equipas. Isso aumenta o risco de resistência interna, conflitos e sabotagem passiva.
Porque existe um entusiasmo exagerado e pressão para "implementar depressa". As chefias, muitas vezes pouco informadas, querem "usar IA" sem perceber o que implica ou para que serve. Esta pressa compromete o tempo necessário de planeamento, testes e ajustamentos que são essenciais em tecnologias com efeitos imprevisíveis.
Continua.
%2019.15.jpeg)

Sem comentários:
Enviar um comentário