Statistische Tests sind die einzige Möglichkeit, Qualität und Herstellung um objektive Beweise für die Entscheidungsfindung zu liefern. Sie helfen, Schwankungen in Prozessen zu erkennen und zwischen zufälligen Schwankungen und tatsächlichen Problemen zu unterscheiden. In der Technik helfen Statistiken dabei, Muster, Ausreißer und Fehlerquellen in der Systemleistung zu erkennen und eine datengestützte Entscheidungsfindung zu gewährleisten. Durch die rigorose Analyse von Versuchsergebnissen können Ingenieure Produktdesigns und Fertigungsprozesse validieren und potenzielle Probleme vor der Implementierung erkennen. Dieser systematische Ansatz verringert das Risiko unerwarteter Ausfälle und erhöht die allgemeine Sicherheit, indem er die Zuverlässigkeit und die Einhaltung internationaler Sicherheitsvorschriften gewährleistet. Normen.
Dieser Beitrag gibt einen Überblick über die wichtigsten statistischen Tests, die in der Fertigung und im Total Quality Management (TQM) verwendet werden.
Hinweis: Da sie auch das Ingenieurwesen, die Forschung und die Wissenschaft betreffen, sind die folgenden 2 statistischen Tests und Analysen
- Korrelationsanalyse: misst die Stärke und Richtung der Beziehung zwischen zwei Variablen (z. B. Korrelationskoeffizient nach Pearson).
- Regressionsanalyse: untersucht die Beziehung zwischen Variablen (z. B. Inputfaktoren und Prozessoutput), von der einfachen linearen bis zur multiplen Regression.
werden hier nicht aufgeführt, sondern in einem eigenen Artikel über die 10 wichtigsten Algorithmen für das Ingenieurwesen.
Normalitätstests

In der Welt der statistischen Tests wird bei vielen gängigen statistischen Methoden (t-Tests, ANOVA, lineare Regression usw.) davon ausgegangen, dass die Daten normal- bzw. gaußverteilt sind (oder dass die Residuen/Fehler normal sind). Ein Verstoß gegen diese Annahme kann dazu führen, dass die Ergebnisse unzuverlässig sind: p-Werte können irreführend sein, Konfidenzintervalle können falsch sein, und das Risiko von Fehlern vom Typ I/II steigt. Beachten Sie, dass einige Tests, wie z. B. die 1-Wege-ANOVA, recht gut mit einer nicht-normalen Verteilung umgehen können.
Hinweis: Wenn Ihre Daten nicht normal sind (siehe unten), müssen Sie möglicherweise nicht-parametrische Tests (wie den Mann-Whitney-U-Test oder den Kruskal-Wallis-Test) verwenden, die keine Normalität voraussetzen, oder Ihre Daten transformieren, was den Rahmen dieses Beitrags sprengen würde.
Es gibt zwar mehrere statistische Tests dafür, aber hier wird der Shapiro-Wilk-Test näher erläutert, der vor allem für kleine Stichprobengrößen bekannt ist, typischerweise n < 50, aber bis zu 2000 verwendet werden kann.
Zu Ihrer Information: andere gängige Normalitätstests:
- Kolmogorov-Smirnov (K-S)-Test (mit Lilliefors-Korrektur): funktioniert besser bei größeren Stichprobengrößen, ist aber weniger empfindlich als Shapiro-Wilk, insbesondere bei kleinen Datensätzen
- Anderson-Darling-Test: eignet sich für alle Stichprobenumfänge und ist in den Schwänzen (Extremen) der Verteilung empfindlicher, während er bei der Feststellung von Abweichungen von der Normalität in den Extremen stärker ist.
So führen Sie den Shapiro-Wilk-Normalitätstest durch
1. Berechnen Sie die Shapiro-Wilk-Teststatistik (W): W = \frac{\left(\sum_{i=1}^{n} a_i x_{(i)}\right)^2}{\sum_{i=1}^{n} (x_i - \bar{x})^2}Hinweis: Da die Berechnung der a_i Koeffizienten ist nicht trivial und erfordert im Allgemeinen eine Tabelle oder einen Algorithmus, weshalb der Shapiro-Wilk-Test fast immer durch Software wie R, SciPy von Python, MS Excel-Add-ons oder andere spezielle Software. Für eine manuelle Berechnung, diese Seite bietet alle a_i Koeffizienten und p-Wert für Stichproben von bis zu 50. Der Wert von W liegt zwischen 0 und 1 (W = 1: perfekte Normalität. W < 1: je weiter er von 1 entfernt ist, desto weniger normal sind Ihre Daten). 2. W ist nicht genug. In Verbindung mit dem entsprechenden p-Wert ergibt sich das Konfidenzniveau. In der Shapiro-Wilk-Tabelle, bei die Zeile des Stichprobenumfangs n, suchen Sie den Wert, der dem von Ihnen berechneten W am nächsten liegt, und ermitteln Sie den entsprechenden Wert p-Wert an der Spitze | Der Zähler ist die quadrierte Summe der gewichteten geordneten Stichprobenwerte. Der Nenner ist die Summe der quadrierten Abweichungen vom Stichprobenmittelwert (d. h. die Stichprobenvarianz, skaliert mit (n-1)). x_{(i)} = die Statistik i-ter Ordnung (d. h. der i-te kleinste Wert in der Stichprobe) x_i = der i-te beobachtete Wert \bar{x} = der Stichprobenmittelwert a_i = Konstanten (Gewichte), die aus den Mittelwerten, Varianzen und Kovarianzen der Ordnungsstatistiken einer Stichprobe aus einer Standardnormalverteilung ((N(0,1))) berechnet werden und nur von n (Stichprobenumfang) abhängen. n = Stichprobenumfang |
3. Ergebnis: Ist der p-Wert größer als das gewählte Alpha-Niveau (z. B. 0,05), gibt es einen statistischen Beweis dafür, dass die getesteten Daten normalverteilt sind. |
Für Normalitätstests wird häufig empfohlen, eine numerische Methode mit einer grafischen Methode wie der Henry-Linie, Q-Q-Diagrammen oder Histogrammen:
Nicht-Normalverteilungen beachten!
Obwohl die Normal-/Gauß-Verteilung der häufigste Fall ist, sollte sie nicht automatisch angenommen werden. Zu den täglichen Gegenbeispielen gehören:
- Verteilung von Reichtum und Einkommen unter den Individuen. Sie folgt einer Pareto-Verteilung (Potenzgesetz), die mit einem "langen Schwanz" sehr wohlhabender Personen schief ist.
- Die Größe der Stadtbevölkerung in einem Land folgt dem Zipf'schen Gesetz (Potenzgesetz), mit einigen sehr großen Städten und vielen kleinen Städten.
- Die Stärke und Häufigkeit von Erdbeben entspricht einer Potenzgesetz/Gutenberg-Richter-Verteilung: kleine Erdbeben sind häufig, große sind selten.
- Tägliche Preisänderungen oder Renditen auf den Finanzmärkten: fat-tailed/heavy-tailed-Verteilungen, nicht gaußförmig; große Abweichungen treten häufiger auf als von einer Normalverteilung vorhergesagt.
- Die Häufigkeit von Wörtern in der Sprache folgt, wie die Stadtbevölkerung oben, dem Zipfschen Gesetz (Potenzgesetz): Wenige Wörter werden häufig verwendet, die meisten Wörter sind selten.
- Internetverkehr/Website-Popularität: Potenzgesetz/Long Tail: Einige Websites haben Millionen von Zugriffen, die meisten haben nur sehr wenige.
- Dateigrößen auf Computersystemen: lognormal oder Potenzgesetz, mit wenigen sehr großen und vielen kleinen Dateien.
- Menschliche Lebensspanne/Langlebigkeit: rechtsschief (kann Modell mit Weibull oder Gompertz-Verteilung), nicht normal; mehr Menschen sterben im höheren Alter.
- Die Verbindungen in sozialen Netzwerken folgen einem Potenzgesetz: wenige Nutzer haben viele Verbindungen, die meisten haben wenige.
Die meisten von ihnen sind gekennzeichnet durch "wenige große, viele kleine", eine Signatur von Potenzgesetzen, starke Schwänze, Exponential- oder Lognormalverteilungen und nicht die symmetrische Form des Gauß.
Der t-Test (Student's t-Test)
Der t-Test (auch bekannt als "t von Student"), der 1908 von William Sealy Gosset unter dem Pseudonym "Student" entwickelt wurde, ist ein statistischer Test, der zum Vergleich von Mittelwerten verwendet wird, wenn der Stichprobenumfang gering und die Varianz der Population unbekannt ist. Da er sich auf den Vergleich der Mittelwerte zweier Populationen konzentriert, ist er einer der am häufigsten verwendeten Tests in der Fertigung.

Zweck: Der t-Test hilft Ingenieuren und Qualitätsfachleuten festzustellen, ob ein statistisch signifikanter Unterschied zwischen den Mittelwerten zweier Gruppen oder zwischen einem Stichprobenmittelwert und einem bekannten Standard besteht. Er wird üblicherweise bei Hypothesentests verwendet, um zu bewerten, ob Prozessänderungen oder Produktänderungen geführt zu echten Verbesserungen oder Unterschieden führen, die über das hinausgehen, was durch Zufall zu erwarten wäre.
Praktische Beispiele aus der Industrie:
- In der Automobilherstellung könnte ein t-Test verwendet werden, um die Zugfestigkeit von Stahl von zwei verschiedenen Lieferanten zu vergleichen, um eine gleichbleibende Qualität sicherzustellen.
- In der Pharmazie wird der t-Test verwendet, um zu analysieren, ob ein neues Produktionsverfahren zu Tabletten führt, deren mittleres Gewicht sich signifikant von der Norm unterscheidet.
- In der Elektronik können Ingenieure den t-Test verwenden, um zu überprüfen, ob eine Designänderung an einer Leiterplatte zu einer messbaren Verbesserung des elektrischen Widerstands führt.
Anleitung zum Student's t-Test
Es gibt viele Varianten des t-Tests; das Beispiel hier konzentriert sich auf einen so genannten "t-Test mit zwei Stichproben" in seiner "ungepaarten" Version, bei dem die Stichproben von 2 verschiedenen Produktionschargen verglichen werden.
- Geben Sie Ihre Null- und Alternativhypothese an; in diesem Beispiel "es gibt keinen Unterschied zwischen den Mittelwerten" gegenüber "es gibt Unterschiede".
- Sammeln Sie Ihre Daten von den 2 zu vergleichenden Produktionschargen und berechnen Sie
- die 2 Stichprobenmittelwerte \bar{X} = \frac{1}{n_1} \sum_{i=1}^{n_1} X_i und \bar{Y} = \frac{1}{n_2} \sum_{j=1}^{n_2} Y_j
- Berechnen Sie die 2 Stichprobenabweichungen: S_X^2 = \frac{1}{n_1-1} \sum_{i=1}^{n_1} (X_i - \bar{X})^2 und S_Y^2 = \frac{1}{n_2-1} \sum_{j=1}^{n_2} (Y_j - \bar{Y})^2
- Stichprobengrößen.
- Berechnen Sie die Teststatistik. Obwohl die Methode davon ausgeht, dass beide Stichproben unabhängig sind und beide Stichproben aus normalverteilten Grundgesamtheiten stammen, gibt es noch zwei Fälle:
- wenn gleiche Varianzen angenommen werden ("gepoolter" t-Test;): Gepoolte Varianz: S_p^2 = \frac{ (n_1-1)S_X^2 + (n_2-1)S_Y^2 }{ n_1 + n_2 - 2 }
Teststatistik: t = \frac{ \bar{X} - \bar{Y} }{ S_p \sqrt{ \frac{1}{n_1} + \frac{1}{n_2} } } - bei ungleichen Varianzen (Welch's t-test): Teststatistik: t = \frac{ \bar{X} - \bar{Y} }{ \sqrt{ \frac{S_X^2}{n_1} + \frac{S_Y^2}{n_2} } } Freiheitsgrade (approximativ, Welch-Satterthwaite): df = \frac{\left( \frac{S_X^2}{n_1} + \frac{S_Y^2}{n_2} \right)^2}{ \frac{ (S_X^2 / n_1)^2 }{ n_1 - 1 } + \frac{ (S_Y^2 / n_2)^2 }{ n_2 - 1 } }
- wenn gleiche Varianzen angenommen werden ("gepoolter" t-Test;): Gepoolte Varianz: S_p^2 = \frac{ (n_1-1)S_X^2 + (n_2-1)S_Y^2 }{ n_1 + n_2 - 2 }
- Verwenden Sie die berechneten ( t ) und Freiheitsgrade (n_1+n_2-2 für gleiche Varianzen oder die Welch-Formel), um den p-Wert aus der t-Verteilung nachzuschlagen oder zu berechnen (je nachdem, ob es sich um einen einseitigen oder zweiseitigen Test handelt).
- Ergebnis: Vergleichen Sie den berechneten t-Wert mit dem kritischen t-Wert aus statistischen Tabellen auf der Grundlage des von Ihnen gewählten Konfidenzniveaus und der Freiheitsgrade; alternativ können Sie eine Software für den p-Wert verwenden. Wenn die t-Statistik den kritischen Wert übersteigt oder der p-Wert unter dem von Ihnen festgelegten Schwellenwert (in der Regel 0,05) liegt, verwerfen Sie die Nullhypothese.
Der F-Test
Der F-Test, der von dem Statistiker Ronald A. Fisher Anfang des 20. Jahrhunderts eingeführt wurde, wird verwendet, um die Variabilität (Varianz) zwischen zwei Datensätzen zu vergleichen und festzustellen, ob sich ihre Populationsabweichungen signifikant unterscheiden. In den Bereichen Qualität und Technik hilft er oft dabei festzustellen, ob Prozessänderungen oder unterschiedliche Maschinen zu konsistenten Ergebnissen führen oder ob neue Methoden die Produktvariabilität beeinflussen. Oftmals eine Vorstufe zur Anwendung von t-Tests und ANOVA bei größeren Vergleichen.
Zweck: Der F-Test wird verwendet, um festzustellen, ob zwei Prozesse oder Proben das gleiche Maß an Abweichung aufweisen, was Entscheidungen zur Qualitätskontrolle und Prozessverbesserung unterstützt. Er hilft Ingenieuren zu erkennen, ob Änderungen (z. B. neue Maschinen, Lieferanten oder Materialien) die Konsistenz oder Qualität eines Produkts beeinflussen.
Beispiele aus der Industrie
- Fertigung: Vergleich der Maßabweichungen von Teilen, die von zwei verschiedenen Maschinen hergestellt wurden, um sicherzustellen, dass beide Maschinen innerhalb der Qualitätsstandards produzieren.
- Lieferantenbewertung: Vergleich der Festigkeitsschwankungen von Rohstoffen von zwei verschiedenen Lieferanten, um zu entscheiden, ob ein Lieferant eine gleichmäßigere Qualität liefert.
- Qualitätsverbesserung: Prüfung, ob eine Prozessverbesserung (z. B. eine neue Kalibrierungsmethode) die Variabilität des Endproduktgewichts im Vergleich zur alten Methode verringert hat.
Anleitung für den F-Test
- Sammeln Sie zwei Sätze von Probendaten (z. B. Messungen von Prozess A und Prozess B).
- Berechnen Sie die Varianz für jede Stichprobengruppe A und B.
- Teilen Sie die größere Varianz durch die kleinere Varianz, um den F-Wert zu erhalten.
- Ergebnis: Vergleichen Sie diesen F-Wert mit einem kritischen Wert aus der F-Verteilungstabelle auf der Grundlage des Stichprobenumfangs und des gewünschten Konfidenzniveaus; wenn der berechnete F-Wert größer ist, sind die Varianzen signifikant unterschiedlich. Bei statistischen Tests, den Varianzverhältnistests, sind die mit jeder Gruppe verbundenen Freiheitsgrade (DOF) die Anzahl der Stichproben minus eins (beachten Sie, dass dies bei einem ANOVA-Ergebnisvergleich anders ist).
F-Verteilungstabelle: Link zur F-Verteilungstabelle bis zu 15×15 DOF (und Online-Rechner für kritische F für größere DOF)
Analyse der Varianz (ANOVA)
Während sich der obige F-Test im weitesten Sinne auf jeden statistischen Test bezieht, der die F-Verteilung verwendet und zum Vergleich von Varianzen oder Varianzverhältnissen zwischen zwei oder mehr Gruppen eingesetzt wird, ist die ANOVA eine Variante, bei der die Mittelwerte von drei oder mehr Gruppen verglichen werden, um festzustellen, ob mindestens eine Gruppe signifikant unterschiedlich ist. Der ANOVA-Test wurde ebenfalls von Ronald Fisher in den 1920er Jahren als statistisches Instrument für landwirtschaftliche Experimente entwickelt.
Zweck: Die Varianzanalyse (ANOVA) dient dazu, festzustellen, ob es statistisch signifikante Unterschiede zwischen den Mittelwerten von drei oder mehr unabhängigen Gruppen gibt. In den Bereichen Qualität, Technik und insbesondere in Versuchsplanung (DOE)Sie hilft zu erkennen, welche Faktoren oder Prozesse einen wesentlichen Einfluss auf die Produktleistung oder den Output haben, und unterstützt so eine solide Entscheidungsfindung und Prozessverbesserung.
Beispiele:
- In der pharmazeutischen Produktion kann die ANOVA helfen, die Auswirkungen verschiedener Formulierungsverfahren auf die Wirksamkeit eines Arzneimittels zu vergleichen.
- In der Elektronik wird sie eingesetzt, um zu prüfen, ob die unterschiedlichen Ausfallraten von Leiterplatten auf unterschiedliche Chargen von Rohmaterialien zurückzuführen sind.
Anleitung zur ANOVA in Kürze
1. Definieren Sie die Gruppen oder Behandlungen, die Sie vergleichen wollen, und sammeln Sie Daten von jeder Gruppe. Berechnen Sie
2. Verwenden Sie diese Werte zur Berechnung der F-Statistik (siehe rechts), die das Verhältnis der Varianz zwischen den Gruppen zur Varianz innerhalb der Gruppen darstellt. 3. Vergleichen Sie die F-Statistik mit einem kritischen Wert aus der F-Verteilungstabelle bei einem gewählten Signifikanzniveau (z. B. 0,05). 4. Ergebnis: Wenn die F-Statistik den kritischen Wert überschreitet, schließen Sie daraus, dass es signifikante Unterschiede zwischen den Gruppenmitteln gibt. | Die F-Statistik: Das F entspricht dem Mittleres Quadrat zwischen den Gruppen (MSB) geteilt durch Mittleres Quadrat innerhalb der Gruppen (MSW) Praktisch: F = \frac{ \frac{SSB}{k-1} }{ \frac{SSW}{N-k} } SSB = Summe der Quadrate zwischen den Gruppen |
Der Chi-Quadrat-Test
Der Chi-Quadrat-Test, der 1900 von Karl Pearson eingeführt wurde, revolutionierte die statistische Hypothesenprüfung, indem er eine Methode bereitstellte, um festzustellen, ob ein signifikanter Unterschied zwischen erwarteten und beobachteten Häufigkeiten in kategorialen Daten besteht. In den Bereichen Qualität und Technik hilft er zu beurteilen, ob Abweichungen bei einem Prozess oder bei Produkteigenschaften zufällig auftreten oder auf ein systemisches Problem hindeuten.
Zweck: Der Chi-Quadrat-Test prüft, ob die Unterschiede zwischen beobachteten und erwarteten Ergebnissen bei Qualitätsmessungen auf zufällige Schwankungen zurückzuführen sind oder auf ein spezifisches Problem hinweisen, das angegangen werden muss.
Praktische Beispiele aus der Industrie
- Fertigungsfehler: Überprüfung, ob die Verteilung der fehlerhaften Produkte auf verschiedene Schichten oder Maschinen gleichmäßig ist und ob bestimmte Schichten eine deutlich höhere Fehlerquote aufweisen.
- Lieferantenqualität: Vergleich der Qualitätsleistung (z. B. Pass/Fail-Raten) von Komponenten mehrerer Lieferanten, um festzustellen, ob die Teile eines Lieferanten statistisch gesehen eher ausfallen.
- Kundenbeschwerden: Analyse, ob die Art oder Häufigkeit von Kundenbeschwerden zufällig über das Jahr verteilt ist oder mit bestimmten Zeiten, Produkten oder Regionen zusammenhängt.
Wie man den Chi-Quadrat-Test durchführt
- Erfassen Sie die beobachteten Daten und bestimmen Sie die erwarteten Häufigkeiten für jede Kategorie unter der Nullhypothese.
- Verwenden Sie die Chi-Quadrat-Formel: Χ² = Σ[(O - E)² / E], wobei O für beobachtet und E für erwartet steht.
- Vergleichen Sie den berechneten Chi-Quadrat-Wert mit einem kritischen Wert aus der Chi-Quadrat-Tabelle mit den entsprechenden Freiheitsgraden.
- Ergebnis: Wenn der Wert den Tabellenwert übersteigt, liegt ein statistisch signifikanter Unterschied vor.
Link zum Tabelle der kritischen Werte nach dem Chi-Quadrat-Verfahren
Vollständiges Chi-Quadrat-Beispiel: Fairness eines Würfels
i | Oi | Ei | Oi-Ei | (Oi-Ei)2 |
1 | 5 | 10 | -5 | 25 |
2 | 8 | 10 | -2 | 4 |
3 | 9 | 10 | -1 | 1 |
4 | 8 | 10 | -2 | 4 |
5 | 10 | 10 | 0 | 0 |
6 | 20 | 10 | 10 | 100 |
Summe | 134 |
Dieses vollständige Beispiel stammt aus Wikipedia-Artikel Chi-Quadrat.
Erfahrung: Ein 6-seitiger Würfel wird 60 Mal geworfen. Die Anzahl der Würfel, die auf 1, 2, 3, 4, 5 und 6 landen, ist 5, 8, 9, 8, 10 bzw. 20.
Frage: Ist der Würfel nach dem Pearson-Chi-Quadrat-Test bei einem Signifikanzniveau von 95% und/oder 99% verzerrt?
Die Nullhypothese lautet, dass der Würfel unvoreingenommen ist, d. h. dass jede Zahl in diesem Fall gleich oft vorkommt, 60/n = 10.
Die Ergebnisse können tabellarisch dargestellt werden (siehe rechts):
Grad der Freiheit | Wahrscheinlichkeit kleiner als der kritische Wert | ||||
---|---|---|---|---|---|
0.90 | 0.95 | 0.975 | 0.99 | 0.999 | |
5 | 9.236 | 11.070 | 12.833 | 15.086 | 20.515 |
Betrachtet man eine Tabelle mit den kritischen Werten der Chi-Quadrat-Verteilung im oberen Schwanzbereich (die Tabelle ist in der obigen Anleitung verlinkt), so bezieht sich der Tabellenwert auf die Summe der quadrierten Variablen, jeweils geteilt durch die erwarteten Ergebnisse.
Für das vorliegende Beispiel bedeutet dies, dass χ2=25/10+4/10+1/10+4/10+0/10+100/10=13,4
Fazit des Tests: Diese 13.4 ist das experimentelle Ergebnis, dessen Unwahrscheinlichkeit (mit einem fairen Würfel) wir abschätzen wollen, mit einer Bedeutung oder Vertrauen zwischen 97.5% und 99%
Prozessfähigkeit (Cp, Cpk, Pp, Ppk)

Diese 4 Kennzahlen sind kein statistischer Test im eigentlichen Sinne, sondern bewerten, wie gut ein Prozess die Spezifikationen erfüllt, und sind somit ein wichtiges Instrument zur Aufrechterhaltung und Verbesserung der Qualitätsstandards in der Fertigung.
Die Prozessfähigkeitsanalyse hat ihren Ursprung im frühen 20. Jahrhundert mit dem Aufkommen der statistischen Qualitätskontrolle in der Fertigung, die von Persönlichkeiten wie Walter Shewhart vorangetrieben wurde. Ihre Methoden entwickelten sich durch das Wachstum von Six Sigma und Total Quality Management (TQM) im späten 20. Jahrhundert zu einem Eckpfeiler der modernen Qualitätstechnik.
Zweck: Die Prozessfähigkeitsanalyse bewertet, wie gut ein Prozess innerhalb festgelegter Grenzen (Toleranzen) produziert werden kann. Sie quantifiziert die Variabilität eines Prozesses im Verhältnis zu den Konstruktionsspezifikationen und bestimmt die Wahrscheinlichkeit der Herstellung fehlerhafter Produkte. Die Analyse hilft bei der Ermittlung von Möglichkeiten zur Prozessverbesserung und stellt sicher, dass die Produkte die Kundenanforderungen durchweg erfüllen.
Cp, Cpk und statistische Tests in der Industrie
- Automobilbau: Mit statistischen Tests und diesen 4 Kennziffern wird überprüft, ob der Durchmesser von Motorkolben konstant innerhalb enger Toleranzgrenzen bleibt, was die Kompatibilität gewährleistet und Motorausfälle reduziert.
- Pharmazeutische Industrie: Wird eingesetzt, um zu überprüfen, ob das Füllgewicht von Tabletten oder Kapseln durchgängig den behördlichen Vorschriften und Qualitätsstandards entspricht, um das Risiko einer Unter- oder Überdosierung zu minimieren.
- Halbleiterherstellung: zur Überwachung der Dicke von Wafer-Beschichtungen, um Zuverlässigkeit und Leistung in der Mikrochip-Produktion zu gewährleisten.
Wie berechnet man Cp, Cpk, Pp und Ppk?
Cp: Prozessfähigkeit
Cp = \frac{USL - LSL}{6\sigma} | USL = Obere Spezifikationsgrenze LSL = Untere Spezifikationsgrenze σ = Standardabweichung (in der Regel aus der Variation innerhalb der Untergruppe geschätzt) |
Cpk: Prozessfähigkeitsindex
Cpk = \min\left(\frac{USL - \mu}{3\sigma}, \frac{\mu - LSL}{3\sigma}\right) | \mu = Prozessmittelwert |
Pp: Prozessleistung
Pp = \frac{USL - LSL}{6s} | s = Gesamtstandardabweichung (umfasst sowohl Abweichungen innerhalb als auch zwischen Untergruppen; wird über einen längeren Zeitraum verwendet) |
Ppk: Prozessleistungsindex
Ppk = \min\left(\frac{USL - \bar{x}}{3s}, \frac{\bar{x} - LSL}{3s}\right) | \bar{x} = Gesamtmittelwert |
Wie man mit Cp-, Cpk-, Pp-, Ppk-Werten abschließt
- Cp, Pp: wenn >1, hat der Prozess das Potenzial, die Spezifikationen zu erfüllen; Werte ≥1,33 werden im Allgemeinen als fähig angesehen, abhängig von Ihrer Branche und der Kritikalität Ihrer genauen Anwendung
- Cpk, Ppk: Sie geben an, wie zentriert der Prozess innerhalb der Spezifikationen ist; je näher Cpk/Ppk an Cp/Pp liegen, desto zentrierter ist der Prozess.
- Wenn Cpk oder Ppk <1 ist, liegt wahrscheinlich ein erheblicher Teil der Produktion außerhalb der Spezifikation; eine Prozessverbesserung ist erforderlich.
- Ein höherer Index deutet auf einen leistungsfähigeren (und in der Regel qualitativ besseren) Prozess hin.
Schlussfolgerung und Fallstricke
Statistische Tests sind leistungsstarke Werkzeuge für die Datenanalyse, aber ihre Anwendung erfordert sowohl ein ausgeprägtes theoretisches Verständnis als auch eine kritische Beurteilung und Anpassung an die Praxis, die weit über eine statistische Softwareinstallation oder QMS-Regeln hinausgeht.
- Annahmen verstehen & sdie Wahl des richtigen Tests: Jedem statistischen Test liegt eine Reihe von Annahmen zugrunde (z. B. Normalität der Daten, gleiche Varianzen, Unabhängigkeit der Beobachtungen). Wenn diese Annahmen verletzt werden oder einen unangemessenen Test gewählt, die Ergebnisse des Tests können ungültig oder irreführend sein.
- Unordnung in der realen Welt & bDer Geschäftskontext ist wichtigIndustrielle Daten verletzen oft die Testannahmen (z. B. Nicht-Normalität, Autokorrelation). Die blinde Anwendung von Lehrbuch-Tests kann zu völlig irreführenden Analysen führen.
- Probleme mit der Datenqualität: Messfehler, Ausreißer und fehlende Daten sind bei statistischen Tests in der Industrie häufig anzutreffen und müssen vor dem Test behandelt und dokumentiert werden.
Für Produktdesign Was die Qualität betrifft, so sollten Sie Ihre Anstrengungen auf das Notwendige beschränken: "Manchmal sind die Ergebnisse statistisch signifikant, haben aber nur geringe praktische Auswirkungen oder umgekehrt".
Externe Links zu statistischen Tests für Qualität
Internationale Normen
(Bewegen Sie den Mauszeiger über den Link, um unsere Beschreibung des Inhalts zu sehen)
Verwandte Beiträge
Die besten 100+ IRC-Kanäle für Ingenieure
Persona Card Creator™
Verzeichnis der Software für Medizinische Bildgebung
CAD-Software-Verzeichnis
Weighted MVP Features Prioritizer™
Verzeichnis für Bauprojektmanagement-Software