Una compañía multinacional de papel quería reducir su costo de baja calidad. La compañía reconoció una oportunidad para utilizar conceptos de Six Sigma para minimizar su variabilidad en sus procesos.
La administración senior estaba emocionada con la idea de aplicar Diseño de Experimentos (DOE) para descubrir las relaciones matemáticas entre las variables de entrada y salida. Para ellos, la posibilidad de tener una ecuación y = f(x) para sus equipos automatizados significó la posibilidad de ejecutar la línea de producción con calidad mejorada.
La falta de estandarización en el sistema de medición de la compañía contribuyo con errores a la verdadera respuesta del equipo. Además, el equipo directivo no estaba dispuesto a incurrir en pérdidas de la capacidad y rendimiento que generalmente ocurren durante la ejecución de un DOE. Por último, después fue demostrado que la inestabilidad en los procesos de entradas era lo suficientemente grande para confundir los resultados de cualquier intento DOE.
En lugar de obtener el modelo de proceso matemático resultado de un DOE, lo que algunos consideran la solución definitiva de Six Sigma, la compañía utilizó un número de otras herramientas de Six Sigma para hacer mejoras significativas al rendimiento del proceso, con costos más bajos y en menos tiempo. Mientras un proyecto típico de Six Sigma de esta complejidad podría durar en exceso 6 meses, en esta instancia el proyecto cerró en solo 6 semanas, terminando con un plan para aprovechar los resultados en otras instalaciones de la compañía.
Evaluar el Sistema de Medición
Aunque la compañía había invertido una cantidad significativa de capital en el sistema de monitoreo y control del proceso en línea, la inversión fue realizada sin esperarse mejoras al rendimiento. Los equipos de producción e ingeniería eran conscientes de que el sistema de control estaba limitado porque los operadores continuaron haciendo ajustes de punto basados en el conocimiento tribal en lugar de utilizar el sistema de control para estabilizar el proceso. Inicialmente se suponía que este era el resultado de una percepción de que los medidores en línea no fueron debidamente calibrados o que las respuestas de calibre no correspondían con los resultados de la inspección visual. No había ningún dato, sin embargo, para confirmar estas hipótesis, y debido a la complejidad del proceso, creando un sistema de medición intensivo y a corto plazo para reunir los datos necesarios se convirtió en una piedra angular del proyecto.
El primer paso en diseñar el sistema de medición era obtener la opinión del cliente. En este caso el cliente era interno, era el paso subsecuente a la producción. Aquí es donde se determinó la calidad del producto, pero no donde rendimiento había sido medido. La práctica existente era medir la calidad del producto tanto en línea y manualmente a la salida de la primera pieza de equipo de producción. Pero se creía que la temperatura ambiente, la humedad y el tiempo de espera eran lo suficientemente significativos para alterar la calidad del papel antes de que llegara a la próxima pieza del equipo.
Para relacionar efectivamente la calidad del producto real a los datos del equipo de producción en línea, era necesaria la trazabilidad del producto entre las líneas de producción. (Como un paso suplementario en el análisis, se construyeron modelos de correlación entre las 3 variables de salida.) Además, en el inicio, se agregan datos de chatarra en el transcurso de uno o más turnos. Para habilitar el análisis a nivel granular, el desecho de información es necesario de forma más frecuente.
El segundo paso fue estandarizar el sistema de medición. Varios empleados realizan inspecciones visuales en cada turno en cada pieza del equipo, utilizando indicadores de bien/mal. Rápidamente se identificaron las oportunidades para calibrar los medidores con un estándar, identificar un inspector principal y realizar un análisis de medidores R&R. Los resultados del análisis R&R condujeron a un entrenamiento de inspector mejorado y a datos más exactos de inspección como parte del nuevo sistema de medición. En tercer lugar, hubo una variable de entrada (se cree que era importante) en el proceso que no se midió electrónicamente.
El cuarto paso en el desarrollo del sistema de medición fue asegurar que se registraron todas las características críticas del producto. Esto permitiría sub agrupar racionalmente las relaciones de entrada y salida que puede ser dependiendo del tipo de producto, tiempo, lote, etc. Esta información se obtuvo de los registros de actividad de producción.
El quinto paso, y el último, fue crítico, minimizar la variación en la medición de instrumentos. Donde fuera posible, las calibraciones fueron hechas antes de la recolección de datos para el análisis estadístico.
Análisis Cualitativo
A medida que el sistema nuevo fue diseñado y nuevos datos recabados, otras actividades de mejora fueron trabajadas basadas en experiencia cualitativa y conocimiento tribal del proceso. El análisis de modo y efecto de falla, y los diagramas de causa y efecto fueron compilados. Solo con estas dos herramientas, y las actividades de mejora subsecuentes, el equipo fue capaz de realizar una reducción de residuos de más del 10%.
Compilación de Datos Cuantitativos
Una vez que se definió el sistema de recolección de datos, la empresa necesitaba un método para alinear las diferentes fuentes de datos y compilar todos los puntos de datos en un conjunto estructurado de y = f (x) observaciones para su análisis. Hubo tres diferentes fuentes de datos: 1) las mediciones de proceso en línea que estaban almacenados electrónicamente (de 20 diferentes instrumentos), 2) dos conjuntos de resultados de la inspección visual grabados (uno inmediatamente después del paso de la producción inicial) y otro inmediatamente antes del paso posterior y 3) los registros históricos de producción, que también fueron almacenados electrónicamente.
El período de observación necesario para el análisis, calculado basado en volúmenes de producción histórica crítica de tipos de producto, se midió en semanas. La variabilidad observada en pequeños intervalos de producción dictó relativamente pequeños periodos de observación – en este caso, minutos. Si los períodos de observación fueran agrupados en intervalos más grandes, el error asociado con el muestreo del proceso o con los datos promedio confundiría la variabilidad del proceso. Estos factores dictaron un conjunto de datos muy grande, lo que creó la necesidad de automatizar el proceso de alineación de puntos de datos entre cada uno de los conjuntos, en series de tiempo.
Por ejemplo, una consulta de los datos históricos de producción genera un registro por lote, que representan decenas de minutos de producción, mientras que la consulta de los datos de proceso en línea genera un registro por minuto. La compañía desarrolló un archivo de Excel con plantillas de hoja de cálculo para tabular las observaciones de datos, de cada una de las cuatro fuentes y un conjunto de seis diferentes macros para alinear las observaciones en una sola hoja de cálculo (superior a 20.000 filas de datos).
La eficiencia de las macros de Excel fue crítica para reducir el tiempo entre las fases de observación y análisis del proyecto. Esta habilidad para construir la matriz de datos en cuestión de minutos (en comparación con días) significó que la compañía podría revisar periódicamente los progresos de las observaciones mediante la realización de análisis intermedios. Estas revisiones periódicas sirvieron para alentar al equipo de gestión para completar la larga fase de observación ya que fueron capaces de revisar continuamente la eficacia del enfoque.
Análisis de Datos
Al concluir el período de observación, el conjunto de datos final fue compilado y Excel y Minitab fueron utilizados para ordenar y filtrar los datos en subgrupos racionales para la comprobación de la hipótesis. El equipo fue capaz de aplicar numerosas herramientas estadísticas incluyendo histogramas, ejecutar gráficos, pruebas T y gráficos de Pareto.
A nivel granular, las relaciones fueron descubiertas entre las entradas del proceso y la calidad del producto resultante. Esto permitió que el equipo del proyecto pudiese sacar conclusiones basadas en datos acerca de la fiabilidad de los dispositivos en línea para predecir la calidad del producto. La representación de datos en un formato visual, estadístico hizo un tremendo impacto en el cambio de la cultura del control del proceso.
En el proceso de realizar el análisis estadístico, los intentos de regresión demostraron que las causa especiales de variación en las operaciones diarias fueron muy significativas, lo que significa que realizar un robusto DOE requeriría un entorno de producción más controlado.
Así que mientras el enfoque utilizado en este proyecto no descubrió una ecuación matemática f (x) = y para el funcionamiento de los equipos de producción, las mejoras significativas fueron identificadas e implementadas, lo que dio lugar a una reducción de arriba de 20% en chatarra – un ahorro de aproximadamente 3/4 millones al año.
Si deseas saber más sobre esta herramienta comunícate hoy con nosotros, o te invitamos a nuestros próximos entrenamientos en las ciudades de Monterrey, Querétaro , Guadalajara y/o Puebla en México. Para acceder a nuestro catalogo completo de cursos has click aqui.