Statistical tests are the only way in quality and manufacturing to provide objective evidence for decision-making. They help identify variations in processes and distinguish between random fluctuations and actual problems. In engineering, statistics help identify patterns, outliers, and sources of failure in system performance, ensuring data-driven decision-making. By rigorously analyzing experimental results, engineers can validate product designs and manufacturing processes, detecting potential problems before implementation. This systematic approach reduces the risk of unexpected failures and enhances overall safety by ensuring reliability and compliance with international safety normas.
En este artículo se revisarán las principales pruebas estadísticas utilizadas en la fabricación y la Gestión de la Calidad Total (GCT).
Nota: dado que también afectan a la ingeniería, la investigación y la ciencia, las 2 pruebas y análisis estadísticos siguientes
- análisis de correlación: mide la fuerza y la dirección de la relación entre dos variables (por ejemplo, coeficiente de correlación de Pearson).
- análisis de regresión: examina la relación entre variables (por ejemplo, factores de entrada y resultados del proceso), desde la simple regresión lineal hasta la múltiple.
no se incluyen aquí, sino en un artículo específico sobre los 10 principales algoritmos para ingeniería.
Pruebas de normalidad

En el mundo de las pruebas estadísticas, muchos métodos estadísticos comunes (pruebas t, ANOVA, regresión lineal, etc.) suponen que los datos tienen una distribución normal/gaussiana (o que los residuos/errores son normales). La violación de este supuesto puede hacer que los resultados no sean fiables: los valores p pueden ser engañosos, los intervalos de confianza pueden ser erróneos y el riesgo de errores de tipo I/II aumenta. Tenga en cuenta que algunas pruebas, como el ANOVA de 1 vía, pueden manejar razonablemente bien una distribución no normal.
Nota: si los datos no son normales (véanse los casos reales más abajo), es posible que tenga que utilizar pruebas no paramétricas (como la prueba U de Mann-Whitney o la prueba de Kruskal-Wallis), que no presuponen normalidad, o transformar los datos, lo que queda fuera del ámbito de este artículo.
Aunque existen varias pruebas estadísticas para ello, detallaremos aquí la prueba de Shapiro-Wilk, famosa sobre todo para muestras de pequeño tamaño, normalmente n < 50, pero que puede utilizarse hasta 2000.
Para su información, otras pruebas de normalidad habituales:
- Prueba de Kolmogorov-Smirnov (K-S) (con corrección de Lilliefors): funciona mejor con muestras de mayor tamaño, aunque es menos sensible que la prueba de Shapiro-Wilk, especialmente para conjuntos de datos pequeños.
- Prueba de Anderson-Darling: es buena con todos los tamaños de muestra y tiene más sensibilidad en las colas (extremos) de la distribución, al tiempo que es más potente para detectar desviaciones de la normalidad en los extremos.
Cómo realizar la prueba de normalidad de Shapiro-Wilk
1. Calcular o computar el estadístico de la prueba de Shapiro-Wilk (W): [latex]W = \frac{\left(\sum_{i=1}^{n} a_i x_{(i)}\right)^2}{\sum_{i=1}^{n} (x_i – \bar{x})^2}[/latex] Note: as the calculation of the [latex]a_i[/latex] coefficients is nontrivial and generally requires a table or algorithm, which is why the Shapiro-Wilk test is nearly always computed by software such as R, Python’s SciPy, MS Excel add-ons or other dedicated softwares. Para un cálculo manual, esta página proporciona todos los coeficientes [latex]a_i[/latex] y el valor p para muestras de hasta 50. El valor de W oscila entre 0 y 1 (W = 1: normalidad perfecta. W < 1: cuanto más se aleja de 1, menos normales son los datos). 2. W no es suficiente. Funciona junto con su correspondiente valor p para tener el nivel de confianza. En la tabla de Shapiro-Wilk, en la fila del tamaño de muestra n, busque el valor más cercano a su W calculado y obtenga su correspondiente Valor p en la parte superior | El numerador representa la suma al cuadrado de los valores de la muestra ordenada ponderada. El denominador es la suma de las desviaciones al cuadrado de la media muestral (es decir, la varianza muestral, escalada por (n-1)). [latex]x_{(i)}[/latex] = el estadístico de orden i-ésimo (es decir, el i-ésimo valor más pequeño de la muestra) [latex]x_i[/latex] = el i-ésimo valor observado [latex]\bar{x}[/latex] = la media muestral [latex]a_i[/latex] = constantes (ponderaciones) calculadas a partir de la media, las varianzas y las covarianzas de los estadísticos de orden de una muestra de una distribución normal estándar ((N(0,1))), y dependen únicamente de n (tamaño de la muestra). n = tamaño de la muestra |
3. Resultado: si el valor p es superior al nivel alfa elegido (por ejemplo, 0,05), existen pruebas estadísticas de que los datos analizados se distribuyen normalmente. |
Para comprobar la normalidad, a menudo se aconseja combinar un método numérico con un método gráfico como la línea de Henry, los gráficos Q-Q o los histogramas :
Cuidado con las distribuciones no normales
Aunque la distribución normal/gaussiana es el caso más frecuente, no debe asumirse automáticamente. Entre los contraejemplos cotidianos se encuentran:
- Distribución de la riqueza y la renta entre los individuos. Sigue una distribución de Pareto (ley de la potencia), sesgada con una "larga cola" de individuos muy ricos.
- El tamaño de la población de un país sigue la Ley de Zipf (ley de potencias), con unas pocas ciudades muy grandes y muchos pueblos pequeños.
- Las magnitudes y la frecuencia de los terremotos siguen una distribución de ley de potencia/Gutenberg-Richter: los terremotos pequeños son frecuentes, los grandes son raros.
- Variaciones diarias de precios o rendimientos en los mercados financieros: distribuciones de cola gruesa/alta, no gaussianas; las grandes desviaciones se producen con más frecuencia de lo previsto por una distribución normal.
- Las frecuencias de palabras en el lenguaje, como la población de la ciudad anterior, sigue una Ley de Zipf (ley de potencia): Pocas palabras se usan a menudo, la mayoría son raras.
- Tráfico en Internet/popularidad de los sitios web: ley de potencia/cola larga: Algunos sitios tienen millones de visitas, la mayoría muy pocas.
- Tamaño de los archivos en los sistemas informáticos: log-normal o ley de potencia, con unos pocos archivos muy grandes y muchos pequeños.
- Esperanza de vida/longevidad humana: asimétrica a la derecha (puede modelarse con Weibull o Gompertz), no normales; muere más gente a edades más avanzadas.
- Las conexiones de las redes sociales siguen una ley de potencia: pocos usuarios tienen muchas conexiones; la mayoría, pocas.
La mayoría de ellas se caracterizan por "pocos grandes, muchos pequeños", una firma de leyes de potencia, colas pesadas, distribuciones exponenciales o log-normales, y no la forma simétrica de la gaussiana.
La prueba t (prueba t de Student)
La prueba t (también conocida como "t de Student"), desarrollada por William Sealy Gosset bajo el seudónimo de "Student" en 1908, es una prueba estadística utilizada para comparar medias cuando el tamaño de las muestras es pequeño y se desconoce la varianza de la población. Centrada en la comparación de las medias de dos poblaciones, es una de las pruebas más utilizadas en la industria manufacturera.

Propósito:the t-Test helps engineers and quality professionals determine if there is a statistically significant difference between the means of two groups...
You have read 32% of the article. The rest is for our community. Already a member? Conectarse
(and also to protect our original content from scraping bots)
Comunidad.mundial.de.la.innovación
Iniciar sesión o registrarse (100% gratis)
Vea el resto de este artículo y todos los contenidos y herramientas exclusivos para miembros.
Sólo verdaderos ingenieros, fabricantes, diseñadores, profesionales del marketing.
Ni bot, ni hater, ni spammer.
Interesting read! But arent parametric tests like t-Test potentially misleading in non-normal distributions? Would love to hear your thoughts!
Sure, but even non-parametric tests have some flaws
Publicaciones relacionadas
Últimas publicaciones y patentes sobre aerogeles y aerografeno
Últimas publicaciones y patentes sobre óxidos de alta entropía (HEO)
Últimas publicaciones y patentes sobre MXenos
Últimas publicaciones y patentes sobre puntos cuánticos
Últimas publicaciones y patentes sobre perovskitas
Últimas publicaciones y patentes sobre grafeno