Maison » Les 6 tests statistiques incontournables pour la qualité et l'ingénierie

Les 6 tests statistiques incontournables pour la qualité et l'ingénierie

tests statistiques pour la qualité et l'ingénierie

Dans le domaine de la qualité et de la fabrication, les tests statistiques sont le seul moyen de fournir des preuves objectives pour la prise de décision. Ils permettent d'identifier les variations dans les processus et de distinguer les fluctuations aléatoires des problèmes réels. Dans le domaine de l'ingénierie, les statistiques permettent d'identifier les modèles, les valeurs aberrantes et les sources de défaillance dans les performances des systèmes, garantissant ainsi une prise de décision fondée sur des données. En analysant rigoureusement les résultats expérimentaux, les ingénieurs peuvent valider les conceptions de produits et les processus de fabrication, en détectant les problèmes potentiels avant leur mise en œuvre. Cette approche systématique réduit le risque de défaillances inattendues et améliore la sécurité générale en garantissant la fiabilité et la conformité aux normes de sécurité internationales. normes.

Ce billet passe en revue les principaux tests statistiques utilisés dans la fabrication et la gestion de la qualité totale (GQT).

Note : étant donné qu'ils concernent également l'ingénierie, la recherche et la science, les 2 tests et analyses statistiques suivants

  • l'analyse des corrélations : mesure la force et la direction de la relation entre deux variables (par exemple, le coefficient de corrélation de Pearson).
  • l'analyse de régression : examine la relation entre les variables (par exemple, les facteurs d'entrée et les résultats du processus), de la simple régression linéaire à la régression multiple.

ne sont pas inclus ici mais dans un article spécifique sur les 10 principaux algorithmes pour l'ingénierie.

Tests de normalité

Un laboratoire bien éclairé, avec un bureau présentant divers équipements scientifiques - béchers, pipettes et microscope. Au centre, un tableau blanc présente un processus clair de test d'hypothèse, étape par étape, avec des équations et des diagrammes expliquant les principes fondamentaux. À l'arrière-plan, une étagère remplie de manuels techniques et d'ouvrages spécifiques à l'industrie dégage une atmosphère de rigueur académique et d'attention aux détails. L'ambiance générale est à la recherche scientifique et à la résolution de problèmes, l'accent étant mis sur l'approche systématique du contrôle de la qualité.
Énumérer les tests statistiques les plus utilisés dans le domaine de la qualité et de l'ingénierie.

Dans le monde des tests statistiques, de nombreuses méthodes statistiques courantes (tests t, ANOVA, régression linéaire, etc.) supposent que les données sont distribuées de façon normale/gaussienne (ou que les résidus/erreurs sont normaux). La violation de cette hypothèse peut rendre les résultats peu fiables : les valeurs p peuvent être trompeuses, les intervalles de confiance peuvent être erronés et le risque d'erreurs de type I/II augmente. Notez que certains tests, comme l'ANOVA à une voie, peuvent raisonnablement bien gérer une distribution non normale.

Remarque : si vos données ne sont pas normales (voir les cas réels ci-dessous), vous devrez peut-être utiliser des tests non paramétriques (comme le test U de Mann-Whitney ou le test de Kruskal-Wallis), qui ne supposent pas la normalité, ou transformer vos données, ce qui n'entre pas dans le cadre de cet article.

Bien qu'il existe plusieurs tests statistiques pour cela, nous détaillerons ici le test de Shapiro-Wilk, célèbre surtout pour les échantillons de petite taille, typiquement n < 50, mais qui peut être utilisé jusqu'à 2000.

Pour information, il existe d'autres tests de normalité courants :

    • Test de Kolmogorov-Smirnov (K-S) (avec correction de Lilliefors) : fonctionne mieux avec des tailles d'échantillons plus importantes tout en étant moins sensible que le test de Shapiro-Wilk, en particulier pour les petits ensembles de données.
    • Test d'Anderson-Darling : il est efficace pour toutes les tailles d'échantillons et est plus sensible dans les queues (extrêmes) de la distribution tout en étant plus puissant pour détecter les écarts par rapport à la normalité dans les extrêmes.

Comment effectuer le test de normalité de Shapiro-Wilk ?

1. Calculez la statistique du test de Shapiro-Wilk (W) :

[latex]W = \frac{\left(\sum_{i=1}^{n} a_i x_{(i)}\right)^2}{\sum_{i=1}^{n} (x_i - \bar{x})^2}[/latex]

Note : le calcul des coefficients [latex]a_i[/latex] n'étant pas trivial et nécessitant généralement une table ou un algorithme, le test de Shapiro-Wilk est presque toujours calculé par des logiciels tels que R, SciPy de Python, MS Excel ou d'autres logiciels dédiés. Pour un calcul manuel, cette page fournit tous les coefficients [latex]a_i[/latex] et la valeur p pour les échantillons jusqu'à 50.

La valeur de W est comprise entre 0 et 1 (W = 1 : normalité parfaite. W < 1 : plus il s'éloigne de 1, moins les données sont normales).

2. W ne suffit pas. Il est associé à la valeur p correspondante pour obtenir le niveau de confiance. Dans le tableau de Shapiro-Wilk, à la ligne de la taille de l'échantillon n, recherchez la valeur la plus proche de votre W calculé et obtenez la valeur correspondante. Valeur p en haut

Le numérateur représente la somme quadratique des valeurs de l'échantillon ordonné pondéré.

Le dénominateur est la somme des écarts au carré par rapport à la moyenne de l'échantillon (c'est-à-dire la variance de l'échantillon, échelonnée par (n-1)).

[latex]x_{(i)}[/latex] = la statistique d'ordre i (c'est-à-dire la i-ième valeur la plus petite de l'échantillon)

[latex]x_i[/latex] = la i-ième valeur observée

[latex]\bar{x}[/latex] = la moyenne de l'échantillon

[latex]a_i[/latex] = constantes (poids) calculées à partir de la moyenne, des variances et des covariances des statistiques d'ordre d'un échantillon issu d'une distribution normale standard ((N(0,1))), et ne dépendant que de n (taille de l'échantillon).

n = taille de l'échantillon

3. Résultat : si la valeur p est supérieure au niveau alpha choisi (par exemple 0,05), il existe une preuve statistique que les données testées sont normalement distribuées.

Pour les tests de normalité, il est souvent conseillé de combiner une méthode numérique avec une méthode graphique telle que la ligne de Henry, les diagrammes Q-Q ou les histogrammes :

Attention aux distributions non normales !

Bien que la distribution normale/gaussienne soit le cas le plus fréquent, elle ne doit pas être automatiquement présumée. Parmi les contre-exemples quotidiens, on peut citer

  • Répartition de la richesse et des revenus entre les individus. Elle suit une distribution de Pareto (loi de puissance), asymétrique avec une "longue queue" d'individus très riches.
  • La taille de la population des villes d'un pays suit la loi de Zipf (loi de puissance), avec quelques très grandes villes et de nombreuses petites villes.
  • La magnitude et la fréquence des tremblements de terre correspondent à une loi de puissance/Gutenberg-Richter : les petits tremblements de terre sont fréquents, les grands sont rares.
  • Variations quotidiennes des prix ou des rendements sur les marchés financiers : distributions à queue épaisse/grande, non gaussiennes ; les écarts importants sont plus fréquents que ce que prévoyait une distribution normale.
  • La fréquence des mots dans la langue, comme la population de la ville ci-dessus, suit une loi de Zipf (loi de puissance) : Peu de mots sont utilisés souvent, la plupart des mots sont rares.
  • Trafic Internet/popularité des sites web : loi de puissance/longue traîne : Certains sites ont des millions de visites, la plupart en ont très peu.
  • Taille des fichiers sur les systèmes informatiques : log-normale ou loi de puissance, avec quelques très gros fichiers et beaucoup de petits.
  • Durée de vie/longévité humaine : asymétrique à droite (peut être modélisée avec Weibull ou de Gompertz), et non normale ; davantage de personnes meurent à des âges plus avancés.
  • Les connexions sur les réseaux sociaux suivent une loi de puissance : peu d'utilisateurs ont beaucoup de connexions, la plupart en ont peu.

La plupart d'entre elles se caractérisent par "peu de grands, beaucoup de petits", une signature de lois de puissance, de queues lourdes, de distributions exponentielles ou log-normales, et non par la forme symétrique de la gaussienne.

 

Le test t (test t de Student)

Le test t (alias "t de Student"), mis au point par William Sealy Gosset sous le pseudonyme de "Student" en 1908, est un test statistique utilisé pour comparer des moyennes lorsque la taille des échantillons est faible et que la variance de la population est inconnue. Axé sur la comparaison des moyennes de deux populations, c'est l'un des tests les plus utilisés dans le domaine de la fabrication.

Un laboratoire méticuleusement conçu, avec un ensemble d'instruments scientifiques et de matériel d'essai disposés sur une table de travail moderne et élégante. Les béchers, les éprouvettes et les écrans numériques diffusent une douce lueur ambiante, éclairée par un éclairage précis et directionnel provenant du plafond. Au premier plan, un programme d'analyse statistique est ouvert sur un écran d'ordinateur, affichant des graphiques et des tableaux complexes. Au milieu, un ingénieur en blouse blanche enregistre soigneusement des données, tandis que l'arrière-plan présente un mur de diagrammes techniques et de schémas d'ingénierie. L'atmosphère générale transmet un sentiment de rigueur analytique, d'expertise technique et d'engagement en faveur du contrôle de la qualité.
Un laboratoire équipé d'un ensemble d'instruments scientifiques permettant d'effectuer des tests statistiques.

Objet :the t-Test helps engineers and quality professionals determine if there is a statistically significant difference between the means of two groups...

Communauté mondiale de l'innovation

Se connecter ou s'inscrire (100% gratuit)

Voir la suite de cet article et tous les contenus et outils réservés aux membres.

Uniquement de vrais ingénieurs, fabricants, concepteurs et professionnels du marketing.
Pas de bot, pas de hater, pas de spammer.

Table des matières
    Añadir una cabecera para empezar a generar el índice

    DÉFI DE CONCEPTION ou DE PROJET ?
    Ingénieur mécanique, chef de projet ou de R&D
    Développement de produits efficace

    Disponible pour un nouveau défi à court terme en France et en Suisse.
    Contactez-moi sur LinkedIn
    Produits en plastique et en métal, Conception à coût réduit, Ergonomie, Volumes moyens à élevés, Secteurs réglementés, CE et FDA, CAO, Solidworks, Lean Sigma Black Belt, médical ISO 13485 Classes II et III

    Nous recherchons un nouveau sponsor

     

    Votre entreprise ou institution s'intéresse à la technique, à la science ou à la recherche ?
    > envoyez-nous un message <

    Recevez tous les nouveaux articles
    Gratuit, pas de spam, email non distribué ni revendu

    ou vous pouvez obtenir votre adhésion complète - gratuitement - pour accéder à tout le contenu restreint >ici<

    Sujets abordés : tests statistiques, gestion de la qualité, processus de fabrication, preuves objectives, prise de décision, tests de normalité, test de Shapiro-Wilk, tests non paramétriques, valeur p, erreur de type I, erreur de type II, axés sur les données, analyse de régression, analyse de corrélation, gestion de la qualité totale (TQM), ANOVA, fiabilité, ISO 9001, ISO 25010, ISO 31000, ISO 9000 et ISO 17025.

    1. Brennan

      Une lecture intéressante ! Mais les tests paramétriques tels que le test t ne sont-ils pas potentiellement trompeurs dans le cas de distributions non normales ? J'aimerais savoir ce que vous en pensez !

      1. Fabrice

        Bien sûr, mais même les tests non paramétriques présentent des lacunes

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Articles Similaires

    Retour en haut

    Vous aimerez peut-être aussi