Qualitätsregelkarte

Aus besserwiki.de
Regelkarte
Xbar chart for a paired xbar and R chart.svg
Eines der sieben grundlegenden Instrumente der Qualität
Erstmals beschrieben vonWalter A. Shewhart
ZweckFeststellen, ob ein Prozess einer formalen Untersuchung auf qualitätsbezogene Probleme unterzogen werden sollte

Regelkarten, auch bekannt als Shewhart-Karten (nach Walter A. Shewhart) oder Prozess-Verhaltens-Karten, sind ein Instrument der statistischen Prozesskontrolle, mit dem festgestellt werden kann, ob ein Fertigungs- oder Geschäftsprozess unter Kontrolle ist. Es ist angemessener zu sagen, dass die Regelkarten das grafische Instrument für die statistische Prozessüberwachung (SPM) sind. Herkömmliche Regelkarten sind hauptsächlich für die Überwachung von Prozessparametern gedacht, wenn die zugrunde liegende Form der Prozessverteilungen bekannt ist. Im 21. Jahrhundert stehen jedoch fortschrittlichere Techniken zur Verfügung, bei denen die eingehenden Datenströme auch ohne Kenntnis der zugrunde liegenden Prozessverteilungen überwacht werden können. Verteilungsfreie Regelkarten werden immer beliebter.

Die Qualitätsregelkarte (QRK) oder kurz Regelkarte (engl. „[quality] control chart“, wobei „chart“ eigentlich nicht „Karte“, sondern vielmehr „Schaubild“ oder „Datenblatt“ bedeutet) wird im Qualitätsmanagement zur Auswertung von Prüfdaten eingesetzt. Das Ziel ist die Bewertung von Prozessen hinsichtlich ihrer zeitlichen Qualitätskonstanz (Prozessstabilität). Wenn sich der Prozess signifikant ändert, wird durch die Qualitätsregelkarte signalisiert, in welche Richtung die Veränderung stattfindet (Vergrößerung der Qualitätsstreuung und/oder Änderung der Lage des Qualitätsmerkmals). Dazu werden statistische Stichprobenkennwerte (z. B. Stichprobenmittelwert und Stichprobenstandardabweichung des Qualitätsmerkmals) und Warn-, Eingriffs- und Toleranzgrenzen grafisch dargestellt.

Qualitätsregelkarten sind wesentliche Werkzeuge für die Statistische Prozesslenkung (SPC – englisch statistical process control) zur Optimierung von Produktions- und Serviceprozessen.

Überblick

Wenn die Analyse der Regelkarte zeigt, dass der Prozess derzeit unter Kontrolle ist (d. h. stabil ist und Abweichungen nur von den für den Prozess üblichen Quellen herrühren), dann sind keine Korrekturen oder Änderungen der Prozesssteuerungsparameter erforderlich oder erwünscht. Darüber hinaus können die Daten des Prozesses verwendet werden, um die zukünftige Leistung des Prozesses vorherzusagen. Wenn das Diagramm anzeigt, dass der überwachte Prozess nicht unter Kontrolle ist, kann die Analyse des Diagramms dabei helfen, die Quellen der Schwankungen zu ermitteln, da dies zu einer Verschlechterung der Prozessleistung führt. Ein Prozess, der zwar stabil ist, aber außerhalb der gewünschten (Spezifikations-)Grenzen arbeitet (z. B. kann die Ausschussrate statistisch kontrolliert sein, aber über den gewünschten Grenzen liegen), muss durch gezielte Bemühungen verbessert werden, um die Ursachen für die aktuelle Leistung zu verstehen und den Prozess grundlegend zu verbessern.

Die Regelkarte ist eines der sieben grundlegenden Instrumente der Qualitätskontrolle. Normalerweise werden Regelkarten für Zeitreihendaten verwendet, auch bekannt als kontinuierliche Daten oder variable Daten. Sie können aber auch für Daten verwendet werden, die logisch vergleichbar sind (z. B. wenn Sie Stichproben vergleichen wollen, die alle zur gleichen Zeit entnommen wurden, oder die Leistung verschiedener Personen); die Art der Karte, die dafür verwendet wird, muss jedoch überlegt werden.

Geschichte

Die Regelkarte wurde von Walter A. Shewhart erfunden, der in den 1920er Jahren für Bell Labs arbeitete. Die Ingenieure des Unternehmens waren bestrebt, die Zuverlässigkeit ihrer Telefonübertragungssysteme zu verbessern. Da Verstärker und andere Geräte unter der Erde verlegt werden mussten, bestand ein dringender Bedarf, die Häufigkeit von Ausfällen und Reparaturen zu verringern. Bereits 1920 hatten die Ingenieure erkannt, wie wichtig es ist, die Schwankungen in einem Fertigungsprozess zu verringern. Darüber hinaus hatten sie erkannt, dass ständige Prozessanpassungen als Reaktion auf Abweichungen die Schwankungsbreite erhöhen und die Qualität verschlechtern. Shewhart formulierte das Problem in Form von allgemeinen und besonderen Streuungsursachen und schrieb am 16. Mai 1924 ein internes Memo, in dem er die Regelkarte als Instrument zur Unterscheidung zwischen beiden einführte. Shewharts Chef, George Edwards, erinnerte sich: "Dr. Shewhart verfasste ein kleines Memorandum von nur etwa einer Seite Länge. Etwa ein Drittel dieser Seite war einem einfachen Diagramm gewidmet, das wir heute alle als schematische Regelkarte erkennen würden. Dieses Diagramm und der kurze Text, der ihm vorausging und folgte, enthielten alle wesentlichen Grundsätze und Überlegungen, die zu dem gehören, was wir heute als Prozessqualitätskontrolle kennen." Shewhart betonte, dass es notwendig ist, einen Produktionsprozess in einen Zustand der statistischen Kontrolle zu bringen, in dem es nur noch Schwankungen gemeinsamer Ursache gibt, und diesen unter Kontrolle zu halten, um die zukünftige Produktion vorherzusagen und einen Prozess wirtschaftlich zu steuern.

Shewhart schuf die Grundlage für die Regelkarte und das Konzept des statistischen Kontrollzustands durch sorgfältig konzipierte Experimente. Shewhart ging zwar von rein mathematisch-statistischen Theorien aus, verstand aber, dass Daten aus physikalischen Prozessen typischerweise eine "Normalverteilungskurve" (eine Gauß-Verteilung, die auch als "Glockenkurve" bezeichnet wird) ergeben. Er entdeckte, dass sich die beobachteten Schwankungen in den Produktionsdaten nicht immer so verhielten wie die Daten in der Natur (Brownsche Bewegung der Teilchen). Shewhart kam zu dem Schluss, dass zwar jeder Prozess Schwankungen aufweist, dass aber einige Prozesse kontrollierte Schwankungen aufweisen, die für den Prozess natürlich sind, während andere unkontrollierte Schwankungen aufweisen, die im Kausalsystem des Prozesses nicht immer vorhanden sind.

1924 oder 1925 wurde W. Edwards Deming, der damals in der Hawthorne-Anlage arbeitete, auf Shewharts Innovation aufmerksam. Deming arbeitete später im Landwirtschaftsministerium der Vereinigten Staaten und wurde mathematischer Berater des United States Census Bureau. Im Laufe des nächsten halben Jahrhunderts wurde Deming zum wichtigsten Verfechter und Befürworter von Shewharts Arbeit. Nach der Niederlage Japans am Ende des Zweiten Weltkriegs diente Deming als statistischer Berater des Oberbefehlshabers der Alliierten Mächte. Seine anschließende Einbindung in das japanische Leben und seine lange Karriere als Industrieberater verbreiteten Shewharts Denken und die Verwendung der Regelkarte in der japanischen Fertigungsindustrie in den 1950er und 1960er Jahren.

Einzelheiten der Karte

Eine Regelkarte besteht aus:

  • Punkten, die eine Statistik (z. B. einen Mittelwert, einen Bereich, einen Anteil) der Messungen eines Qualitätsmerkmals in Stichproben darstellen, die dem Prozess zu verschiedenen Zeiten entnommen wurden (d. h. die Daten)
  • Es wird der Mittelwert dieser Statistik unter Verwendung aller Stichproben berechnet (z. B. der Mittelwert der Mittelwerte, der Mittelwert der Spannen, der Mittelwert der Anteile) - oder für einen Bezugszeitraum, anhand dessen Veränderungen beurteilt werden können. In ähnlicher Weise kann stattdessen ein Median verwendet werden.
  • Eine Mittellinie wird bei dem Wert des Mittelwerts oder Medians der Statistik gezogen.
  • Die Standardabweichung (z. B. sqrt(variance) des Mittelwerts) der Statistik wird unter Verwendung aller Stichproben - oder wiederum für einen Bezugszeitraum, anhand dessen Veränderungen beurteilt werden können - berechnet. Im Falle von XmR-Karten handelt es sich streng genommen um eine Annäherung an die Standardabweichung, die nicht die Annahme der Homogenität des Prozesses über die Zeit enthält, die die Standardabweichung voraussetzt.
  • Obere und untere Kontrollgrenzen (manchmal auch als "natürliche Prozessgrenzen" bezeichnet), die den Schwellenwert angeben, bei dem die Prozessausgabe als statistisch "unwahrscheinlich" angesehen wird, und in der Regel bei 3 Standardabweichungen von der Mittellinie eingezeichnet sind.

Das Diagramm kann weitere optionale Merkmale aufweisen, darunter:

  • Restriktivere obere und untere Warn- oder Kontrollgrenzen, die als separate Linien gezeichnet werden, in der Regel zwei Standardabweichungen über und unter der Mittellinie. Dies wird regelmäßig verwendet, wenn ein Prozess eine strengere Kontrolle der Variabilität erfordert.
  • Einteilung in Zonen, mit zusätzlichen Regeln für die Häufigkeit der Beobachtungen in jeder Zone
  • Kennzeichnung von Ereignissen von Interesse, die vom Qualitätsingenieur, der für die Qualität des Prozesses verantwortlich ist, festgelegt werden
  • Maßnahmen bei besonderen Ursachen

(Hinweis: Es gibt mehrere Regelsätze für die Erkennung von Signalen; dies ist nur ein Satz. Der Regelsatz sollte klar angegeben werden).

  1. Jeder Punkt außerhalb der Kontrollgrenzen
  2. Eine Serie von 7 Punkten, die alle über oder unter der Mittellinie liegen - Stoppen der Produktion
    • Quarantäne und 100%-Kontrolle
    • Prozess anpassen.
    • 5 aufeinanderfolgende Proben prüfen
    • Den Prozess fortsetzen.
  3. Ein Durchlauf von 7 Punkten nach oben oder unten - Anweisung wie oben

Verwendung des Diagramms

Wenn der Prozess unter Kontrolle ist (und die Prozessstatistik normal ist), werden 99,7300% aller Punkte zwischen die Kontrollgrenzen fallen. Alle Beobachtungen außerhalb der Grenzwerte oder systematische Muster innerhalb der Grenzwerte deuten auf die Einführung einer neuen (und wahrscheinlich unerwarteten) Abweichungsquelle hin, die als Abweichung besonderer Ursache bezeichnet wird. Da eine erhöhte Abweichung zu höheren Qualitätskosten führt, muss eine Regelkarte, die das Vorhandensein einer besonderen Ursache signalisiert, sofort untersucht werden.

Dies macht die Regelgrenzen zu sehr wichtigen Entscheidungshilfen. Die Regelgrenzen geben Aufschluss über das Prozessverhalten und stehen in keiner Beziehung zu irgendwelchen Spezifikationszielen oder technischen Toleranzen. In der Praxis kann es vorkommen, dass der Mittelwert des Prozesses (und damit die Mittellinie) nicht mit dem spezifizierten Wert (oder Ziel) des Qualitätsmerkmals übereinstimmt, weil der Prozessentwurf das Prozessmerkmal einfach nicht auf dem gewünschten Niveau liefern kann.

Regelkarten schränken die Spezifikationsgrenzen oder -ziele ein, weil die am Prozess Beteiligten (z. B. Maschinenbediener) dazu neigen, sich auf die Einhaltung der Spezifikation zu konzentrieren, während die kostengünstigste Vorgehensweise darin besteht, die Prozessschwankungen so gering wie möglich zu halten. Der Versuch, einen Prozess, dessen natürliches Zentrum nicht mit der Zielvorgabe übereinstimmt, dazu zu bringen, die Zielvorgabe zu erfüllen, erhöht die Prozessvariabilität, steigert die Kosten erheblich und ist die Ursache für viel Ineffizienz im Betrieb. In Prozessfähigkeitsstudien wird jedoch das Verhältnis zwischen den natürlichen Prozessgrenzen (den Kontrollgrenzen) und den Spezifikationen untersucht.

Der Zweck von Regelkarten ist die einfache Erkennung von Ereignissen, die auf eine Zunahme der Prozessvariabilität hindeuten. Diese einfache Entscheidung kann schwierig sein, wenn sich das Prozessmerkmal ständig ändert; die Regelkarte liefert statistisch objektive Kriterien für Veränderungen. Wenn eine Veränderung erkannt und als gut eingestuft wird, sollte ihre Ursache ermittelt und möglicherweise zur neuen Arbeitsweise gemacht werden; wenn die Veränderung schlecht ist, sollte ihre Ursache ermittelt und beseitigt werden.

Der Zweck des Hinzufügens von Warngrenzen oder der Unterteilung der Regelkarte in Zonen besteht darin, eine frühzeitige Benachrichtigung zu ermöglichen, wenn etwas nicht stimmt. Anstatt sofort eine Prozessverbesserung einzuleiten, um festzustellen, ob besondere Ursachen vorliegen, kann der Qualitätsingenieur vorübergehend die Rate der Probenahmen aus dem Prozessoutput erhöhen, bis klar ist, dass der Prozess wirklich unter Kontrolle ist. Es ist zu beachten, dass bei Drei-Sigma-Grenzwerten Schwankungen mit gemeinsamer Ursache zu Signalen führen, die bei schiefen Prozessen weniger als einmal von zweiundzwanzig Punkten und bei normal verteilten Prozessen etwa einmal von dreihundertsiebzig (1/370,4) Punkten auftreten. Die Zwei-Sigma-Warnstufen werden bei normalverteilten Daten etwa einmal pro zweiundzwanzig (1/21,98) aufgetragenen Punkten erreicht. (Zum Beispiel sind die Mittelwerte ausreichend großer Stichproben, die aus praktisch jeder zugrunde liegenden Verteilung gezogen wurden, deren Varianz existiert, gemäß dem zentralen Grenzwertsatz normalverteilt).

Wahl der Grenzwerte

Shewhart legte 3-Sigma-Grenzen (3-Standardabweichungen) auf der folgenden Grundlage fest.

  • Das grobe Ergebnis der Tschebyscheffschen Ungleichung, wonach für jede Wahrscheinlichkeitsverteilung die Wahrscheinlichkeit eines Ergebnisses, das um mehr als k Standardabweichungen vom Mittelwert abweicht, höchstens 1/k2 beträgt.
  • Das feinere Ergebnis der Vysochanskii-Petunin-Ungleichung, dass für eine beliebige unimodale Wahrscheinlichkeitsverteilung die Wahrscheinlichkeit eines Ergebnisses, das um mehr als k Standardabweichungen vom Mittelwert abweicht, höchstens 4/(9k2) beträgt.
  • Bei der Normalverteilung, einer sehr verbreiteten Wahrscheinlichkeitsverteilung, liegen 99,7 % der Beobachtungen innerhalb von drei Standardabweichungen vom Mittelwert (siehe Normalverteilung).

Shewhart fasste die Schlussfolgerungen wie folgt zusammen:

... die Tatsache, dass das Kriterium, das wir zufällig verwenden, einen schönen Ursprung in hochtrabenden statistischen Theoremen hat, rechtfertigt nicht seine Verwendung. Eine solche Rechtfertigung muss sich aus dem empirischen Beweis ergeben, dass es funktioniert. Wie der praktische Ingenieur sagen würde: "Probieren geht über Studieren".

Obwohl er zunächst mit Grenzwerten auf der Grundlage von Wahrscheinlichkeitsverteilungen experimentierte, schrieb Shewhart schließlich:

Einige der frühesten Versuche, einen Zustand der statistischen Kontrolle zu charakterisieren, waren von dem Glauben inspiriert, dass es eine besondere Form der Häufigkeitsfunktion f gibt, und es wurde früh argumentiert, dass das Normalgesetz einen solchen Zustand charakterisiert. Als sich das Normalgesetz als unzureichend erwies, wurden verallgemeinerte Funktionsformen ausprobiert. Heute sind jedoch alle Hoffnungen, eine eindeutige Funktionsform f zu finden, zunichte gemacht.

Die Regelkarte ist als Heuristik gedacht. Deming betonte, dass es sich dabei nicht um einen Hypothesentest handelt und nicht durch das Neyman-Pearson-Lemma motiviert ist. Er vertrat die Auffassung, dass die Unvereinbarkeit von Grundgesamtheit und Stichprobenrahmen in den meisten industriellen Situationen die Anwendung herkömmlicher statistischer Verfahren unmöglich macht. Demings Absicht war es, Einblicke in das Ursachensystem eines Prozesses zu gewinnen, und zwar unter einer Vielzahl von unbekannten Umständen in der Zukunft und in der Vergangenheit. .... Er behauptete, dass unter solchen Bedingungen die 3-Sigma-Grenzen ... einen rationalen und wirtschaftlichen Leitfaden für minimale wirtschaftliche Verluste ... aus den beiden Fehlern darstellen:

  1. Eine Abweichung oder einen Fehler einer speziellen Ursache (zuordenbare Ursache) zuschreiben, obwohl die Ursache in Wirklichkeit zum System gehört (gemeinsame Ursache). (Auch bekannt als Fehler vom Typ I oder False Positive)
  2. Eine Abweichung oder ein Fehler wird dem System (gemeinsame Ursachen) zugeschrieben, obwohl die Ursache in Wirklichkeit eine spezielle Ursache (zuordenbare Ursache) war. (Auch bekannt als Fehler vom Typ II oder falsches Negativ)

Berechnung der Standardabweichung

Wie bei der Berechnung der Kontrollgrenzen ist die erforderliche Standardabweichung (Fehler) diejenige der Streuung der gemeinsamen Ursache im Prozess. Daher wird der übliche Schätzer in Form der Stichprobenvarianz nicht verwendet, da dieser den gesamten quadratischen Fehlerverlust aus allgemeinen und besonderen Ursachen der Variation schätzt.

Eine alternative Methode ist die Verwendung des von Leonard H. C. Tippett abgeleiteten Verhältnisses zwischen dem Bereich einer Stichprobe und ihrer Standardabweichung als Schätzer, der tendenziell weniger von den extremen Beobachtungen beeinflusst wird, die typisch für besondere Ursachen sind.

Regeln für die Erkennung von Signalen

Die gebräuchlichsten Sätze sind:

  • Die Western-Electric-Regeln
  • Die Wheeler-Regeln (entspricht den Western-Electric-Zonentests)
  • Die Nelson-Regeln

Besonders umstritten ist die Frage, wie lange eine Reihe von Erfassungen, die alle auf der gleichen Seite der Mittellinie liegen, als ein Signal gelten sollte; verschiedene Autoren sprechen sich für 6, 7, 8 und 9 aus.

Der wichtigste Grundsatz bei der Auswahl eines Regelsatzes ist, dass die Wahl vor der Inspektion der Daten getroffen werden muss. Die Auswahl von Regeln, nachdem die Daten gesichtet wurden, erhöht tendenziell die Fehlerrate vom Typ I aufgrund von Testeffekten, die durch die Daten nahegelegt werden.

Alternative Grundlagen

1935 führte die British Standards Institution unter dem Einfluss von Egon Pearson und entgegen dem Geist Shewharts Regelkarten ein und ersetzte die 3-Sigma-Grenzwerte durch Grenzwerte auf der Grundlage von Perzentilen der Normalverteilung. Dieser Ansatz wird weiterhin von John Oakland und anderen vertreten, wird aber von Autoren in der Shewhart-Deming-Tradition weitgehend missbilligt.

Leistung von Regelkarten

Wenn ein Punkt außerhalb der für eine bestimmte Regelkarte festgelegten Grenzen liegt, wird von den für den zugrunde liegenden Prozess Verantwortlichen erwartet, dass sie feststellen, ob eine besondere Ursache vorliegt. Wenn dies der Fall ist, sollte festgestellt werden, ob die Ergebnisse mit der besonderen Ursache besser oder schlechter sind als die Ergebnisse mit den üblichen Ursachen allein. Ist dies der Fall, sollte die Ursache nach Möglichkeit beseitigt werden. Wenn sie besser ist, kann es sinnvoll sein, die besondere Ursache absichtlich in dem System zu belassen, das die Ergebnisse hervorbringt.

Selbst wenn ein Prozess unter Kontrolle ist (d. h. wenn keine besonderen Ursachen im System vorhanden sind), besteht eine Wahrscheinlichkeit von etwa 0,27 %, dass ein Punkt die 3-Sigma-Kontrollgrenzen überschreitet. Selbst ein Prozess, der unter Kontrolle ist und in einer ordnungsgemäß erstellten Regelkarte dargestellt wird, zeigt also das mögliche Vorhandensein einer besonderen Ursache an, auch wenn diese nicht tatsächlich eingetreten ist. Bei einer Shewhart-Regelkarte mit 3-Sigma-Grenzwerten tritt dieser Fehlalarm im Durchschnitt einmal alle 1/0,0027 oder 370,4 Beobachtungen auf. Daher beträgt die durchschnittliche Lauflänge einer Shewhart-Regelkarte in Kontrolle (oder ARL in Kontrolle) 370,4.

Tritt in der Zwischenzeit eine besondere Ursache auf, so ist sie möglicherweise nicht so groß, dass die Karte einen sofortigen Alarm auslöst. Wenn eine besondere Ursache auftritt, kann man diese Ursache durch Messung der Veränderung des Mittelwerts und/oder der Varianz des betreffenden Prozesses beschreiben. Wenn diese Änderungen quantifiziert werden, ist es möglich, die ARL für die Ganglinie zu bestimmen, die außer Kontrolle geraten ist.

Es stellt sich heraus, dass Shewhart-Karten recht gut in der Lage sind, große Änderungen des Mittelwerts oder der Varianz des Prozesses zu erkennen, da ihre Regelabweichungszeiten in diesen Fällen recht kurz sind. Bei kleineren Änderungen (z. B. einer 1- oder 2-Sigma-Änderung des Mittelwerts) erkennt die Shewhart-Karte diese Änderungen jedoch nicht effizient. Es wurden andere Arten von Regelkarten entwickelt, wie z. B. die EWMA-Karte, die CUSUM-Karte und die Echtzeitkontrastkarte, die kleinere Änderungen effizienter erkennen, indem sie Informationen aus Beobachtungen nutzen, die vor dem letzten Datenpunkt gesammelt wurden.

Viele Regelkarten eignen sich am besten für numerische Daten mit Gaußschen Annahmen. Die Echtzeit-Kontrasttabelle wurde vorgeschlagen, um Prozesse mit komplexen Merkmalen zu überwachen, z. B. hochdimensionale, gemischte numerische und kategoriale Daten, fehlende Werte, nicht-gaußsche, nicht-lineare Beziehungen.

Kritische Anmerkungen

Mehrere Autoren haben die Regelkarte mit der Begründung kritisiert, dass sie gegen das Wahrscheinlichkeitsprinzip verstößt. Das Prinzip selbst ist jedoch umstritten, und die Befürworter von Regelkarten argumentieren weiter, dass es im Allgemeinen unmöglich ist, eine Wahrscheinlichkeitsfunktion für einen Prozess zu spezifizieren, der sich nicht in statistischer Kontrolle befindet, insbesondere wenn das Wissen über das Ursachensystem des Prozesses gering ist.

Einige Autoren haben die Verwendung durchschnittlicher Lauflängen (ARL) für den Vergleich der Regelkartenleistung kritisiert, da dieser Durchschnitt in der Regel einer geometrischen Verteilung folgt, die eine hohe Variabilität und Schwierigkeiten aufweist.

Einige Autoren haben kritisiert, dass sich die meisten Regelkarten auf numerische Daten konzentrieren. Heutzutage können Prozessdaten viel komplexer sein, z. B. nicht gaußförmig, eine Mischung aus numerischen und kategorialen Daten oder fehlende Werte.

Arten von Diagrammen

Karte Prozessbeobachtung Beziehungen zwischen Prozessbeobachtungen Art der Prozessbeobachtung Größe der zu erkennenden Verschiebung
und R-Diagramm Messung der Qualitätsmerkmale innerhalb einer Untergruppe Unabhängige Variablen Groß (≥ 1,5σ)
und s-Karte Messung der Qualitätsmerkmale innerhalb einer Untergruppe Unabhängige Variablen Groß (≥ 1,5σ)
Shewhart-Einzelregelkarte (ImR-Karte oder XmR-Karte) Messung von Qualitätsmerkmalen für eine Beobachtung Unabhängige Variablen Groß (≥ 1,5σ)
Drei-Wege-Karte Messung der Qualitätsmerkmale innerhalb einer Untergruppe Unabhängige Variablen Groß (≥ 1,5σ)
p-Karte Anteil der fehlerhaften Merkmale innerhalb einer Untergruppe Unabhängige Attribute Groß (≥ 1,5σ)
np-Tabelle Anzahl der Nichtkonformitäten innerhalb einer Untergruppe Unabhängige Attribute Groß (≥ 1,5σ)
c-Tabelle Anzahl der Nichtkonformitäten innerhalb einer Untergruppe Unabhängige Attribute Groß (≥ 1,5σ)
u-chart Nichtkonformitäten pro Einheit innerhalb einer Untergruppe Unabhängige Attribute Groß (≥ 1,5σ)
EWMA-Diagramm Exponentiell gewichteter gleitender Durchschnitt der Qualitätsmerkmalsmessung innerhalb einer Untergruppe Unabhängige Attribute oder Variablen Klein (< 1,5σ)
CUSUM-Diagramm Kumulative Summe der Messung von Qualitätsmerkmalen innerhalb einer Untergruppe Unabhängige Attribute oder Variablen Klein (< 1,5σ)
Zeitreihenmodell Messung der Qualitätsmerkmale innerhalb einer Untergruppe Autokorreliert Attribute oder Variablen K.A.
Regressionsregelkarte Messung der Qualitätsmerkmale innerhalb einer Untergruppe Abhängig von Prozessregelungsvariablen Variablen Groß (≥ 1,5σ)

Einige Praktiker empfehlen auch die Verwendung von Individuals-Charts für Attributdaten, insbesondere wenn die Annahmen von entweder binomialverteilten Daten (p- und np-Charts) oder Poisson-verteilten Daten (u- und c-Charts) verletzt werden. Für diese Praxis gibt es zwei Hauptbegründungen. Erstens ist die Normalität für die statistische Kontrolle nicht erforderlich, so dass die Individualkarte auch für nicht normalverteilte Daten verwendet werden kann. Zweitens leiten Attributdiagramme das Streuungsmaß direkt aus dem mittleren Anteil ab (indem sie eine Wahrscheinlichkeitsverteilung annehmen), während Individualdiagramme das Streuungsmaß aus den Daten ableiten, unabhängig vom Mittelwert, wodurch Individualdiagramme robuster als Attributdiagramme gegenüber Verletzungen der Annahmen über die Verteilung der zugrunde liegenden Grundgesamtheit sind. Gelegentlich wird darauf hingewiesen, dass die Ersetzung des Individualdiagramms am besten für große Zählungen funktioniert, wenn die Binomial- und Poisson-Verteilungen sich einer Normalverteilung annähern, d. h. wenn die Anzahl der Versuche n > 1000 für p- und np-Diagramme oder λ > 500 für u- und c-Diagramme.

Kritiker dieses Ansatzes argumentieren, dass Regelkarten nicht verwendet werden sollten, wenn die ihnen zugrundeliegenden Annahmen verletzt werden, z. B. wenn die Prozessdaten weder normal- noch binomial- (oder Poisson-) verteilt sind. Solche Prozesse sind nicht unter Kontrolle und sollten vor der Anwendung von Regelkarten verbessert werden. Außerdem erhöht die Anwendung der Karten bei Vorliegen solcher Abweichungen die Fehlerraten vom Typ I und Typ II der Regelkarten und kann dazu führen, dass die Karte von geringem praktischen Nutzen ist.

Arten von Regelkarten

Grundsätzlich unterscheidet man Regelkarten nach der Art der zu untersuchenden Merkmale in Regelkarten für variable Merkmale und Regelkarten für attributive Merkmale.

Regelkarten für variable Merkmale

Prozessregelkarten

Die Prozessregelkarte ist eine Regelkarte, die nicht von vorgegebenen Grenzwerten ausgeht. Die obere und untere Warngrenze sowie die obere und untere Eingriffsgrenze werden aus den vorhandenen Prozessdaten berechnet; sie spiegeln nicht den Toleranzbereich wider, sondern nur die beobachtete Häufigkeitsverteilung der mit dem jeweiligen Schaubild überwachten Stichprobenkenngröße. Die Warn- und Eingriffsgrenzen werden periodisch basierend auf den jüngsten Prozessdaten neu berechnet. Die auf Prozessregelkarten gesammelten Prozessdaten bilden die Grundlage für die Prozessfähigkeitsuntersuchung, in der die Häufigkeitsverteilung des beobachteten Merkmals mit dem Toleranzbereich verglichen wird.

Die wesentlichen Prozessregelkarten sind:

Prozessregelkarten englische Herleitung Graphische Darstellung (Chart) der mathematisch auch
ImR-Karte Individual and moving Range Einzelwerte über deren gleitender Spannweite XmR-Karte
Xbar-Karte X with bar (= Querstrich) Mittelwerte als Einzelwerte X-quer-Karte
XbarR-Karte Xbar and R Mittelwerte über deren Spannweite X-quer-R-Karte
XbarS-Karte Xbar and S Mittelwerte über deren Standardabweichung X-quer-S-Karte
EWMA-Karte Exponentially Weighted Moving Average exponentiell gewichteten, gleitenden Mittelwerte
CUSUM-Regelkarte Cumulative SUM Kumulative Summen
Drei-Wege-Karte Three-way chart Interaktionen von drei unterschiedlichen Einflussgrößen
z-Karte z-chart Z-Diagramm

Regelkarten dienen auch der Analyse von Lage und Streuung.

Annahmeregelkarten

Die Annahmeregelkarte ist eine Regelkarte, bei der die Eingriffs- und Warngrenzen über vorgegebene Toleranzgrenzwerte berechnet werden. Die Toleranzgrenzwerte geben an, welche Abweichungen bei einem Produkt maximal vorhanden sein dürfen, um noch brauchbar zu sein. Die Verwendung von Annahmeregelkarten steht im Widerspruch zum Prinzip der ständigen Verbesserung.

Regelkarten für attributive Merkmale

Die wesentlichen attributiven Regelkarten sind:

Attributive Regelkarten englische Herleitung Graphische Darstellung (Chart) der Stichprobenumfang mathematisch
p-Karte Proportions Proportionen, z. B. Anteil fehlerhafter Einheiten in einer Stichprobe variabel
np-Karte number of proportions Anzahl Proportionen, z. B. Anzahl fehlerhafter Einheiten in einer Stichprobe konstant
c-Karte Anzahl Ereignisse, z. B. Anzahl Fehler innerhalb eines konstanten Ereignisbereiches konstant
u-Karte Unit Anteile bzw. Ereignisse, z. B. Fehler pro untersuchter Einheit variabel

Grenzwerte

Warngrenzen und Eingriffsgrenzen

Grenzwerte in Qualitätsregelkarten werden durch horizontale, durch Farbe bzw. Linienstärke hervorgehobene Linien dargestellt. Man unterscheidet zwischen Warn- und Eingriffsgrenzen, die jeweils oberhalb bzw. unterhalb des als optimal definierten Mittelwertes des zu steuernden Prozesses liegen.

Bezeichnung DE Abkürzung DE Bezeichnung EN Abkürzung EN Linienart unten
Obere Eingriffsgrenze OEG Upper control limit UCL rote, fette Strichlinie
Obere Warngrenze OWG Upper warning limit UWL rote, dünne Strichlinie
Mittelwert Middle value grüne Volllinie
Untere Warngrenze UWG Lower warning limit LWL rote, dünne Strichlinie
Untere Eingriffsgrenze UEG Lower control limit LCL rote, fette Strichlinie
Qualitätsregelkarte

Der Abstand der beiden Warngrenzen (±) sowie der beiden Eingriffsgrenzen (±) vom Mittelwert ist gleich groß, wobei folgende Zusammenhänge gelten, wenn die Messwertverteilung der gaußschen Normalverteilung gehorcht:

UWG bis OWG 95,45 % Mittelwert ± 2 Sigma der Häufigkeitsverteilung der dargestellten Stichprobenkenngröße
UEG bis OEG 99,73 % Mittelwert ± 3 Sigma der Häufigkeitsverteilung der dargestellten Stichprobenkenngröße

Der elfte Messpunkt (fünfte von rechts) in der gezeigten Regelkarte liegt oberhalb der oberen Warngrenze. Wenn eine Eingriffsgrenze überschritten wäre, so wäre es möglich, dass der Prozess an dieser Stelle außer Kontrolle geraten ist. In knapp 3 von ca. 1000 Fällen wird aber aus statistischen Gründen die Eingriffsgrenze überschritten (bei dem oben definierten 3-Sigma-Bereich), ohne dass dies zwangsläufig bedeutet, dass der Prozess oder seine Parameter sich verändert haben (). Bei Übersteigen der Warngrenzen sind mögliche, unbeabsichtigte Veränderungen im Prozess zu suchen und ggf. geeignete Abstellmaßnahmen zu ergreifen, um den Prozess wieder in seinen ordnungsgemäßen Zustand zu bringen. So kann der Prozess im Idealfall korrigiert werden, noch bevor dieser außer Kontrolle gerät und möglicherweise fehlerhafte Teile produziert werden.

Entscheidungsregeln

  • Fällt ein Kennwert z innerhalb der Warngrenzen an, (UWG < z < OWG), dann ist keine Störung zu vermuten.
  • Fällt ein Kennwert z zwischen Warn- und Eingriffsgrenzen an (UEG < z ≤ UWG oder OWG ≤ z < OEG), dann ist der Verdacht auf Vorliegen einer Störung gegeben. Man entnimmt deshalb sofort eine weitere Stichprobe.
  • Fällt ein Kennwert außerhalb der Eingriffsgrenzen an (z ≤ UEG oder z ≥ OEG), dann wird eine Störung vermutet und eingegriffen. Welche Maßnahmen getroffen werden müssen, hängt davon ab, welche Kenntnisse über den zu regelnden Prozess und die Art der angezeigten Störung vorhanden sind.

Toleranzgrenzen

Toleranzgrenzen (Oberer Grenzwert (OGW) und Unterer Grenzwert (UGW)) werden auf Prozessregelkarten grundsätzlich nicht eingezeichnet, da sie für einzelne Merkmalswerte gelten und nicht für die auf den Regelkarten dargestellten Kenngrößen (Stichprobenmittelwerte, Stichprobenspannweiten usw.).

Indikator für den Prozess

Die Qualitätsregelkarte ist auch ein Indikator für den Prozess an und für sich. Bei der Auswertung einer Qualitätsregelkarte unterscheidet man zwischen zufälligen und systematischen Einflüssen. Zufällige Einflüsse führen zu einer Streuung der Prüfdaten auf der Qualitätsregelkarte, sie sind bedingt durch Einflussfaktoren wie kleine Temperaturschwankungen oder Werkstoffbeschaffenheit und sind als normaler, immer vorhandener Teil des Prozesses zu betrachten. Systematische Einflüsse können zu einer langsamen Verschiebung der Prüfdaten auf der Qualitätsregelkarte oder auch zu plötzlichen, drastischen Prozessveränderungen führen; sie sind bedingt durch besondere Einflussfaktoren wie Werkzeugverschleiß oder fehlerhaft eingestellte Maschinen.

Indikator für das Produkt

Der Verlauf der Messpunkte der untersuchten Teile zeigt die Qualität der Teile aus der Stichprobe. Daraus lässt sich auf die Qualität der Gesamtmenge der Teile schließen.

Auswerten von Regelkarten

Systematische Abweichungen unterliegen Gesetzmäßigkeiten. Aus dem Verlauf der Messpunkte auf der Qualitätsregelkarte lässt sich auf diese Gesetzmäßigkeiten zurückschließen.

So spricht man von einem „Trend“, wenn mindestens sieben Messpunkte eine nahezu lineare Steigung in Richtung einer Grenze zeigen. Möglicherweise liegt ein stark zunehmender Werkzeugverschleiß vor, der bald eine Überschreitung der Eingriffs- bzw. Warngrenze verursacht.

Ein „Pattern“ (Gesetzmäßigkeit) ist ein nicht zufälliger Kurvenverlauf, z. B. das periodische „Schwingen“ um die Mittelwertlinie. Es kann Temperaturschwankungen bedeuten, die in der Fertigung mal größere, mal kleinere Teile verursachen.

Man spricht von einem Durchlauf (oder „Run“), wenn sich 7 eingezeichnete Punkte ober- bzw. unterhalb der Mittelwertlinie befinden. In diesem Fall hat sich der Prozessmittelwert wahrscheinlich verschoben. Dieser kann z. B. anzeigen, dass eine Werkzeugschneide einen Schaden erlitten hat und die Teile von nun an größer bzw. kleiner fertigt.

Die Eingriffsgrenzen sind also nicht die einzigen Anzeichen für potenzielle Probleme; die Anordnung der Messpunkte ist ebenfalls zu beachten. Liegen mehr als 90 % der eingezeichneten Punkte im mittleren Drittel des Bereichs zwischen den Eingriffsgrenzen oder weniger als 40 % der Punkte in diesem Drittel, ist ebenfalls davon auszugehen, dass ein systematischer (nicht zufälliger) Einfluss vorliegen könnte.