Ontem recebi um e-mail onde se colocava a seguinte questão:
.
"Será que me pode dizer qual o EMA erro máximo admissivel para uma balança de laboratório?
Como se define esse erro?"
.
Cá vai o meu subsídio para uma resposta:
Quando realizamos uma medição de uma mensuranda, de uma variável a medir, temos a certeza de que existe um valor verdadeiro para o resultado.
.
No entanto, reconhecemos que nós humanos nunca conheceremos qual é esse verdadeiro valor, só os deuses o podem saber.
.
Para obviar esse problema, em vez de cruzarmos os braços, adoptamos uma abordagem engenheiral, vamos arranjar um padrão, algo que sirva de referência e que possa ser usado como sendo o valor verdadeiro. Por exemplo, se estou a trabalhar com uma balança que dá resultados até à segunda casa decimal, se usar um padrão com cinco casas decimais, posso admitir que o padrão é o valor verdadeiro.
.
Quando realizamos uma medição temos:
.
Resultado da medição = verdadeiro valor ± erro de medição
ou seja,
.
Resultado da medição = valor convencionalmente verdadeiro ± erro aleatório
ou seja,
.
Resultado da medição = verdadeiro valor + erro sistemático ± erro aleatório
ou seja,
.
Resultado da medição = verdadeiro valor + desvio ± incerteza
.
tudo grandezas que podem ser calculadas durante uma calibração. Assim, temos que:
.
Erro de medição = desvio + incerteza
.
Consideremos agora um exemplo: Temos um produto que colocamos no mercado. Esse produto tem uma característica X (a massa, por exemplo) que é prometida aos clientes no âmbito de uma especificação.
.
“Compre o nosso produto, garantimos que tem uma massa de 20g com uma tolerância de mais ou menos 2g"
.
Algo como:
Vamos criar uma grelha para avaliar o efeito da dimensão do erro de medição na nossa apreciação da qualidade do produto quanto ao cumprimento da especificação. Algo como:
.
.
À medida que nos aproximamos dos limites da especificação, aumenta o risco de cometermos erros de apreciação, os chamados erros alfa e beta, aceitar um produto mau como sendo bom, e rejeitar um produto bom como sendo mau.
.
Se o erro de medição aumentar de dimensão, aumenta a probabilidade de cometermos esses erros alfa e beta, como mostra a figura que se segue:
Quanto maior o erro de medição, maior o risco de cometer o erro a ou o erro b.
Rejeitar como mau um produto bom, ou aceitar como bom um produto mau.
A probabilidade de cometer um erro alfa ou um erro beta, ou seja o risco de tomar uma decisão errada, é tanto maior quanto maior for a percentagem do intervalo da tolerância “comido” pelo erro de medição.
.
Chamando ao intervalo de tolerância 2 x T (por causa do ± T) e ao erro de medição EM podemos calcular o seguinte rácio
Se R = 1; T = EM, o grau de risco na tomada de decisão, na sequência da medição é de 100%.
.
Se R = 2; T = 2 x EM, o grau de risco é de 50%
.
Se R = 10; T = 10 x EM, o grau de risco é de 10%.
.
Ou seja: Só quando o valor medido cai dentro das manchas azuis da figura que se segue, é que há risco de cometer o erro de apreciação alfa ou beta, ou seja um risco de 25%.
Portanto podemos dizer:
.
O critério de decisão para estabelecer qual o EM máximo para aceitarmos um instrumento de medida, na sequência de uma calibração, não é um critério metrológico, não é um critério técnico (não estamos a falar de metrologia legal) é um critério político. Qual o risco que aceitamos ter de colocar na nossa apreciação?
.
Ele, o risco, vai existir sempre, sempre! Temos é de avaliar a sua dimensão, qual a dimensão a partir da qual a achamos demasiado desconfortável.
.
A nossa balança mede a massa de um princípio activo famacêutico para uma receita? Ou mede a quantidade de farinha a colocar num bolo de pastelaria? Qual o risco associado a cada uma das situações?
.
A ISO 10012-1, no Guia de aplicação da cláusula 4.3 aconselhava (digo aconselhava pois não tenho à mão a última versão) que o valor de R fosse o mais alto possível, e que a gama deveria andar entre um mínimo de 3 e um máximo de 10 (mais de 10 significa ter um aparelho de medida bom de mais, se calhar caro de mais).
.
Será que isto ajuda?