MSA dati discreti-Comprendere e facilitare il miglioramento continuo...
Normalmente nei processi vi sono sia variabili di tipo continuo sia di tipo discreto (attributi), come analizzare un sistema di misura per dati (variabili) continui è già stato analizzato in un'altra pagina di questo sito (Gage R & R continui), vedremo ora come effettuare la misura e l'analisi di un sistema di misura per dati discreti (attributi).
In questo caso viene utilizzato il calcolo di un indice chiamato Kappa (K), che è possibile utilizzare in tutti i casi di dati non-quantitativi come:
Vi sono comunque alcune particolarità in questo calcolo che vanno considerate:
1) Tutte le categorie "non accettabili" vengono trattate allo stesso modo
Ad esempio se si utilizza una scala di valori per graduare la gravità della "non-conformità" tutti questi valori vengo trattati allo stesso modo (accorpati), come pure vengono eventualmente accorpati in una unica categoria tutti i valori che misurano la conformità.
2) Non considera la distribuzione dei valori all'interno del range possibile
Ad esempio se sono definiti sei gradi di giudizio, di classificazione non viene considerata la distribuzione delle ricorrenze di ogni singolo grado, se egualmente distribuita o se ad esempio il 70% dei valori è uguale al grado 2..
3) Richiede che le unità siano indipendenti.
4) Richiede che tutte le categorie (classificazioni) siano mutualmente esclusive
Nessuna sovrapposizione fra le varie categorie / classificazioni.
Una volta terminata la prova e raccolto i dati relativi alla misura (valutazione) di ogni singolo valutatore (operatore) vedremo ora come elaborarli per arrivare al calcolo del nostro indice K.
Seguiremo alcune semplici regole:
Definito il metodo, possiamo procedere con il calcolo, usando la formula seguente:
Dove:
In pratica (semplicità) per il calcolo utilizzeremo una tabella dove riportare i dati raccolti:
1° Misura | ||||
GOOD | BAD | |||
2° Misura |
GOOD | |||
BAD | ||||
Per meglio comprendere proviamo ora, con l'utilizzo di un esempio, a inserire i dati nella tabella sovrastante ed effettuare il calcolo dell'indice K.
Il responsabile dell'ispezione finale di un processo di produzione, dopo aver preparato un lotto di 50 pezzi prelevati dal processo casualmente ma secondo le regole sopra ricordate vuole effettuare un test sottoponendo i pezzi del campione al giudizio di due ispettori (che chiameremo A e B).
Effettuate le misure previste, raccolto i dati effettueremo il calcolo della riproducibilità facendo il confronto fra la prima replica di misure dei due ispettori. Con il seguente risultato
Inseriamo i dati nella tabella, dopo averli trasformati in % sul totale dei pezzi del lotto di misura.
ISP. A | ||||
BUONO | SCARTO | |||
ISP. B | BUONO | 0,40 | 0,16 | 0,56 |
SCARTO | 0,12 | 0,32 | 0,44 | |
0,52 | 0,48 |
Possiamo procedere ora con il calcolo dei vari fattori:
Quindi l'indice K:
Procederemo con il calcolo degli indici K dei due operatori, per valutare la ripetibilità del nostro sistema di misura.
1 misura | ||||
BUONO | SCARTO | |||
2 misura | BUONO | 0,45 | 0,06 | 0,51 |
SCARTO | 0,01 | 0,48 | 0,49 | |
0,46 | 0,54 |
1 misura | ||||
BUONO | SCARTO | |||
2 misura | BUONO | 0,35 | 0,28 | 0,63 |
SCARTO | 0,13 | 0,24 | 0,37 | |
0,48 | 0,52 |
Una volta effettuato il calcolo dell'indice K siamo ora in grado di valutare il nostro sistema di misura, abitualmente si utilizzano i seguenti criteri:
E' opportuno porre l'attenzione anche sui due indici P (P observed e P chance) calcolati, in particolare:
Attenzione: Una mela marcia può far marcire l'intero cesto! Un basso valore di Kappa medio può variare ad ogni misura (bassa ripetibilità), una serie di misure con bassa ripetibilità influenza negativamente la comparazione con le altre.
Un esempio di quanto detto lo troviamo nell'esempio riportato sopra, dove un valore K=0,86 (buono) del primo operatore e un valore K=0,20 (pessimo) del secondo porta il risultato comparato dei due operatori a K=0,44 (non-accettabile).
Download foglio di calcolo (XLS)