MSA dati discreti-Comprendere e facilitare il miglioramento continuo...

ANALISI DEL SISTEMA DI MISURA (MSA) CON DATI DI TIPO discreto (attributi)

INTRODUZIONE

Normalmente nei processi vi sono sia variabili di tipo continuo sia di tipo discreto (attributi), come analizzare un sistema di misura per dati (variabili) continui è già stato analizzato in un'altra pagina di questo sito (Gage R & R continui), vedremo ora come effettuare la misura e l'analisi di un sistema di misura per dati discreti (attributi).

In questo caso viene utilizzato il calcolo di un indice chiamato Kappa (K), che è possibile utilizzare in tutti i casi di dati non-quantitativi come:

  • Buono / Non buono
  • Passa / Non passa
  • Conforme / Non conforme
  • ...

Vi sono comunque alcune particolarità in questo calcolo che vanno considerate:

1) Tutte le categorie "non accettabili" vengono trattate allo stesso modo

Ad esempio se si utilizza una scala di valori per graduare la gravità della "non-conformità" tutti questi valori vengo trattati allo stesso modo (accorpati), come pure vengono eventualmente accorpati in una unica categoria tutti i valori che misurano la conformità.

2) Non considera la distribuzione dei valori all'interno del range possibile

Ad esempio se sono definiti sei gradi di giudizio, di classificazione non viene considerata la  distribuzione delle ricorrenze di ogni singolo grado, se egualmente distribuita o se ad esempio il 70% dei valori è uguale al grado 2..

3) Richiede che le unità siano indipendenti.

  • Le misure o la classificazione di ogni singola unità non siano influenzate da nessuna altra unità
  • Tutti i giudizi o gradi costituiscono una classificazione indipendente e devono essere "non influenzabili" dagli altri.

4) Richiede che tutte le categorie (classificazioni) siano mutualmente esclusive

Nessuna sovrapposizione fra le varie categorie / classificazioni.

PREPARAZIONE DELLA PROVA.
1. Selezionare il campione di prodotto
  • Se vi sono solo due categorie: buono/scarto (passa/non passa):
    • Preparare il campione di pezzi con un numero minimo di 20 buoni e 20 scarti (40 pezzi totali) e un massimo di 50 buoni e 50 scarti (totale 100 pezzi)
    • Definire una proporzione approssimativamente del 50% fra i buoni e gli scarti.
    • Inserire nel campione pezzi rappresentativi del processo "reale" con varie gradazioni sia di "accettabilità" (buoni) sia di "non-accettabilità" (scarti).
  • Se vi sono più di due categorie: buoni e varie categorie di "non buoni":
    • Preparare il campione con una proporzione del 50% di "buoni" e almeno il 10% di ciascun tipo di difetto
    • Si possono combinare più difetti in una categoria chiamata ad esempio "altri"
    • Ogni categoria definita deve però essere mutualmente esclusiva (non sono ammessi pezzi con difetti appartenenti a due o più categorie).
 
2. Selezionare 2 o più valutatori (operatori)
 
3. Effettuare la valutazione (classificazione) del medesimo pezzo almeno 2 volte per ogni valutatore
RACCOLTA DATI E CALCOLO DELL'INDICE K

Una volta terminata la prova e raccolto i dati relativi alla misura (valutazione) di ogni singolo valutatore (operatore) vedremo ora come elaborarli per arrivare al calcolo del nostro indice K.

Seguiremo alcune semplici regole:

  • Effettueremo il calcolo di K separato per ogni singolo valutatore comparando i giudizi espressi nella prima replica di misure con la seconda (pezzo per pezzo), questo ci consentirà di avere una misura della ripetitività del nostro sistema di misura..
  • Effettueremo il calcolo di K comparando fra i vari valutatori i giudizi espressi nella prima replica, costruiremo una tabella con dati accoppiati esplorando tutte le possibili combinazioni (es.: A con B, A con C, B con C), questo per misurare la riproducibilità del sistema.

Definito il metodo, possiamo procedere con il calcolo, usando la formula seguente:

Calcolo K

Dove:

  • P observed = Proporzione di unità dove la classificazione corrisponde fra i due valutatori (o le due repliche)
    • Buono sia per A che per B + Scarto sia per A che per B
  • P chance = Somma dei prodotti delle proporzioni (%) "corrispondenti" fra i due valutatori (o le due repliche):
    • (Buoni per A * Buoni per B) + (Scarti A * Scarti B)

In pratica (semplicità) per il calcolo utilizzeremo una tabella dove riportare i dati raccolti:
 

1° Misura
GOOD BAD

Misura
GOOD
BAD
 


Per meglio comprendere proviamo ora, con l'utilizzo di un esempio, a inserire i dati nella tabella sovrastante ed effettuare il calcolo dell'indice K.


Esempio

Il responsabile dell'ispezione finale di un processo di produzione, dopo aver preparato un lotto di 50 pezzi prelevati dal processo casualmente ma secondo le regole sopra ricordate vuole effettuare un test sottoponendo i pezzi del campione al giudizio di due ispettori (che chiameremo A e B).

Effettuate le misure previste, raccolto i dati effettueremo il calcolo della riproducibilità facendo il confronto fra la prima replica di misure dei due ispettori. Con il seguente risultato

  • Il giudizio "Buono" dei due ispettori coincide per 20 volte
  • Il giudizio "Scarto" di A corrisponde con il giudizio "Buono" di B per 8 volte
  • Il giudizio "Buono" di A corrisponde al giudizio "Scarto" di B per 6 volte
  • Il giudizio "Scarto" dei due ispettori coincide per 16 volte

Inseriamo i dati nella tabella, dopo averli trasformati in % sul totale dei pezzi del lotto di misura.
 

ISP. A
BUONO SCARTO
ISP. B BUONO 0,40 0,16 0,56
SCARTO 0,12 0,32 0,44
0,52 0,48
 

Possiamo procedere ora con il calcolo dei vari fattori:

  • P observed = (0,40 + 0,32) = 0,72
  • Pchance = (0,52*0,56)+(0,48*0,44) =0,50

Quindi l'indice K:

  • K = (0,72-0,50) / (1-0,50) = 0,44

Procederemo con il calcolo degli indici K dei due operatori, per valutare la ripetibilità del nostro sistema di misura.
 

Ispettore A
1 misura
BUONO SCARTO
2 misura BUONO 0,45 0,06 0,51
SCARTO 0,01 0,48 0,49
0,46 0,54
 

  • P obs = (0,45+0,48) = 0,93
  • Pcha = (0,46*0,51)+(0,54*0,49)=0,50
  • K = (0,93-0,50)/(1-0,50)=0,86
Ispettore B
1 misura
BUONO SCARTO
2 misura BUONO 0,35 0,28 0,63
SCARTO 0,13 0,24 0,37
0,48 0,52
 

  • P obs = (0,35+0,24) = 0,59
  • P cha = (0,48*0,63)+(0,52*0,37)=0,49
  • K = (0,59-0,49)/(1-0,49)=0,20
INTERPRETARE I RISULTATI

Una volta effettuato il calcolo dell'indice K siamo ora in grado di valutare il nostro sistema di misura, abitualmente si utilizzano i seguenti criteri:

  • K inferiore a 0,70: sistema di misura inadeguato. In altri termini potremmo affermare che il nostro sistema ha una "affidabilità" inferiore al 70%, con probabilità di "errore di valutazione" superiore a 3 ogni 10 misure. E' quindi ovvio che nella maggior parte dei casi questo venga ritenuto "non accettabile".
  • compreso fra 0,70 e 0,89: sistema di misura adeguato. Il nostro sistema ha una "affidabilità" compresa fra 70% e  89% con probabilità di "errore di valutazione" compresa fra 1 e 3 (a seconda del valore di K) ogni 10 misure. Nella maggior parte dei casi ciò viene ritenuto accettabile, è comunque opportuno prevedere un piano di miglioramento.
  •  K maggiore o uguale a 0,9: sistema di misura eccellente. Nella maggior parte dei casi la valutazione di un tale sistema di misura è ottima, tuttavia esistono dei processi in cui il valore richiesto è superiore ad esempio non può essere inferiore a 0,95.

E' opportuno porre l'attenzione anche sui due indici P (P observed e P chance) calcolati, in particolare:

  • Se P observed è uguale al P chance (o molto vicino) con Kappa prossimo a 0 significa che il risultato è il medesimo di una "scelta casuale".
 

Attenzione: Una mela marcia può far marcire l'intero cesto! Un basso valore di Kappa medio può variare ad ogni misura (bassa ripetibilità), una serie di misure con bassa ripetibilità influenza negativamente la comparazione con le altre.

Un esempio di quanto detto lo troviamo nell'esempio riportato sopra, dove un valore K=0,86 (buono) del primo operatore e un valore K=0,20 (pessimo) del secondo porta il risultato comparato dei due operatori a K=0,44 (non-accettabile).

Download foglio di calcolo (XLS)