Las 7 Nuevas Herramientas de la Calidad Además de las conocidas 7 Herramientas Básicas de la Calidad que fueran descritas en una publicación anterior, la Unión Japonesa de Científicos e Ingenieros (J US E ) agregó, luego de años de análisis y aplicación, siete nuevas herramientas. Si bien las herramientas clásicas se siguen utilizando masivamente y con mucho éxito, sólo funcionan bien en los casos en los que contemos con suficiente información cuantitativa. Las denominadas7 Nuevas Herramientas de la Calidad fueron diseñadas para cubrir necesidades de complejidad considerable, permitiendo un alto nivel de detalle en el análisis de tipo cualitativo. En este resumenprincipales. intentaremos a conocer en qué consiste unason de las ellas y cuáles son sus aplicaciones Lasdar 7 Nuevas Herramientas de la cada Calidad siguientes: Diagrama de Relaciones Diagrama de Afinidad Diagrama de Árbol Diagrama Matriz Matriz de Priorización Diagrama de Proceso de Decisiones Diagrama de Flechas
Diagrama de Relaciones Esta herramienta es sumamente útil para el análisis de un problema en el cual sus causas se encuentran relacionadas entre sí de manera compleja. Su implementación se realiza generalmente de manera grupal mediante el uso de tarjetas. Para comenzar, se define el problema a analizar y se lo escribe en una tarjeta que irá colocada en el centro del diagrama. Luego, los integrantes del grupo deben colocar sus ideas aisladas sobre posibles causas en tarjetas. Cuando se cuente con todas las tarjetas, se las debe agrupar por similitud o relación entre sí. A las que se les determine una relación más directa con el problema, se las considerarácausas principales o primarias. Las tarjetas correspondientes deberán ser colocadas cerca de la tarjeta central con el problema. Con el mismo criterio, cerca de las causas primarias se deben colocar las tarjetas con mayor relación a ellas (causas secundarias, terciarias, etc) alejándose del centro. Una vez distribuidas por completo las tarjetas, se procede a relacionarlas entre sí mediante el criterio de causa-efecto, a través de flechas. Esto permite representar la relación que pueda existir entre una causa y otra. Es decir, si una causa es srcinada por otra causa. El
siguiente
ejemplo
permite
una
mayor
comprensión:
Por último, con el gráfico completo, el grupo puede realizar un análisis de las relaciones existentes que le permita identificar con mayor claridad las causas reales del problema.
Diagrama de Afinidad Este diagrama es conocido también comoDiagrama KJpor las iniciales de su creador, Kawakita Jiro. Surgido en la década de 1980, constituye una herramienta esencial para ordenar grandes cantidades de datos. El criterio utilizado es el de agrupar los datos en función de la afinidad, de alguna relación que exista entre ellos. Esto permite clarificar mejor las ideas a la hora de determinar la causa de un problema. En mucho de los casos, su resultado puede no ser determinante pero sí orientativo. Es decir, puede no brindarnos la respuesta exacta sobre la causa del problema, aunque sí guiarnos hacia la dirección correcta. Una de las maneras más habituales de implementación de esta herramienta es tambi én a través del uso de tarjetas. Se forma un grupo de trabajo, con un moderador. Se plantea grupalmente el tema a tratar y cada uno expresa sus ideas de manera escrita en tarjetas. Una vez que todas las ideas son volcadas, se trabaja en grupo para agrupar todas las tarjetas según su afinidad. En el siguiente gráfico podemos observar una distribución típica de las tarjetas, desde las ideas sueltas en unbrainstorming, hasta su ordenamiento por afinidad:
Diagrama de Árbol Esta es quizás una de las herramientas más sencillas, aunque no por eso menos útil. Permite obtener una visión sistemática del problema (razón por la que también se lo conoce como Diagrama Sistemático). Su estructura es similar a la del organigrama de una organización en el que se plantea una relación jerárquica. En el nivel superior se coloca el objetivo principal a alcanzar y luego se va desglosando en ramas. De cada objetivo se van desprendiendo los medios posibles para alcanzarlo y un nuevo objetivo del cual se desprenderán nuevos medios, y así sucesivamente. Una mejor comprensión puede obtenerse a través del siguiente esquema:
La principal ventaja sobre los dos métodos anteriores es que el diagrama de árbol impide que existan "cabos sueltos", exige una continuidad lógica en el análisis. Tanto en el Diagrama de
Afinidad como en el de Relaciones se agrupan datos por similitud y se establecen relaciones entre causas identificadas. El problema es que no necesariamente, están todas las causas que deberían estar. El diagrama de árbol ayuda a establecer una dependencia ininterrumpida como una cadena.
Diagrama de Matriz Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos aspectos o variables a analizar. Se pueden vincular opciones con criterios, causas con efectos, etc. Uno de los aspectos se coloca en las filas de la matriz, y el otro en las columnas. En la celda que resulta de la intersección de ambas se coloca generalmente un símbolo que suele representar el grado de relación existente: fuerte, media o débil. Esto nos permite tener referencia del grado de vinculación o conexión que existe entre ambos aspectos.
Con estos símbolos suele representarse el grado de vinculación entre aspectos. De i zquierda a d erecha: relación fuerte o alta, relación media y relación débil o baja Existen diferentes configuraciones de matrices dependiendo de la cantidad de dimensiones simultáneas que se están analizando.
La más habitual es lamatriz tipo L, que vincula dos dimensiones.
Las otras matrices disponibles son generalmente combinaciones de esta, entre las que se encuentran: La matriz tipo T (dos matrices L combinadas: un listado comparado en simultáneo con otros dos).
La matriz tipo X (cuatro matrices L combinadas: cuatro listados, comparados cada uno con otros dos, de a pares):
Luego se encuentran otras combinaciones para tres listados: Lamatriz tipo Y (tres matrices L combinadas: cada listado comparado con los otros dos) y lamatriz tipo C (los tres listados comparados entre sí, en simultáneo, dando un gráfico en tres dimensiones).
De i zquierda a d erecha: Matriz tipo C y matriz tipo Y
Matriz de Priorización Esta herramienta se utiliza para escoger entre varias opciones, en función de criterios predefinidos y de manera ponderada. El grupo de trabajo es quien determina cuáles son las opciones disponibles y qué criterios se tendrán en cuenta. Estos criterios deben ser diferentes entre sí. Es importante escoger un número prudente de criterios, sólo los más importantes, para reducir la complejidad del análisis. Tres o cuatro criterios suelen ser aceptables. Para elaborar una Matriz de Priorización, en primer lugar, se debe definir claramente el objetivo. Luego se deben determinar las opciones disponibles. A continuación, se deberán especificar los criterios sobre los cuales se decidirá. Seguramente no todos los criterios tienen igual importancia (igual "peso"). ponderar de los criterios para quelano todos impacten definal. igual manera Por loa tanto, se la debenhora tomar decisión Un ejemplo de Matriz de Priorización es el que vimos en unapublicación anterior con un caso práctico: laMatriz de Pugh.
Diagrama de Proceso de Decisiones Es una herramienta, también conocida por las siglasPDPC (Process Decision Program Chart) muy útil para detectar posibles obstáculos o inconvenientes al implementar un plan de acción, permitiéndonos tomar decisiones a tiempo para solucionarlos. Se parte desde la actividad inicial y se va descendiendo. En primer lugar encontramos a las fases, que son las tareas fundamentales que deben realizarse para alcanzar el objetivo. De cada una de ellas se plantean problemas que puedan surgir (problemas potenciales) los cuales aparecen en el nivel inmediato inferior. Para cada problema se determinan medidas para contrarrestarlos. Las medidas aparecen en el nivel inferior. Si la medida es efectiva, se coloca un círculo (O) debajo. Si no lo es, una cruz (X). Se implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas El Diagrama de Flechas se utiliza para representar de manera gráfica una red compuesta por la secuencia lógica de las actividades que se precisan realizar para resolver un problema o alcanzar una meta. Nos permite, por ejemplo, determinar posibles "cuellos de botella" o hallar los caminos más cortos. Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar claramente cuál es el objetivo del uso de la herramienta y definir los límites y el alcance. Los eventos o situaciones son representadas por círculos y las actividades necesarias para pasar de un evento a otro, por flechas.
Es muy habitual encontrar este tipo de gráficas en la gestión de proyectos, en donde se suelen
utilizar dos técnicas muy importantes: PERT (Program Evaluation and Review Technics) y CPM (Critical Path Method). PERT es básicamente una técnica utilizada para revisar y evaluar proyectos, en donde el parámetro principal a evaluar es el tiempo que se utiliza para realizar cada tarea, siempre en búsqueda de su optimización. CPM también persigue el mismo fin, intentanto determinar la "ruta" más corta para alcanzar el objetivo (completar el proyecto). Hablaremos, en mayor detalle, sobre estas dos técnicas en otra publicación.
En resumen.... Las 7 Nuevas Herramientas de la Calidad no son en realidad tan nuevas, sólo seguimos utilizando el término para diferenciarlas de las clásicas. En todos los casos, se trata de un conjunto de herramientas sumamente poderoso y versátil. La posibilidad de ser utilizadas en infinidad de actividades, en un sinnúmero de aplicaciones, las hace imprescindibles. Su vigencia es absoluta. Sólo debe seleccionarse la más adecuada para cada necesidad. En futuras publicaciones seguiremos profundizando este tema a través de ejemplos y aplicaciones.
DIAGRAMA DE AFINIDAD 2.1 INTRODUCCIÓN
A
LAS
7
NUEVAS
HERRAMIENTAS
INTRODUCCIÓN En los años 70, un comité de la unión japonesa de científicos e ingenieros (Japanese Unión Of Scientist And Engineers JUSE) analizó un gran conjunto de técnicas y herramientas de gestión existentes seleccionados de entre ellas las denominadas “siete nuevas herramientas de gestión y planificación”.
El objetico era determinar un conjunto de herramientas que sirvieran de apoyo a la estrategia de Calidad Total en las áreas fusiónales de las organizaciones y empresas de fabricación, para ser utilizadas por gestores y directivos de una forma similar a como las siete herramientas clásicas habían servidoelde apoyo en en los que departamentos de fabricación a través de los Círculos dedistintas Calidad.a En esa época reto desidia otras áreas (direcciones/departamentos funcionales) la de producción asumieran la función calidad, de igual forma que con anterioridad los departamentos de producción habían asumido la función de controlar la calidad de los productos. Estas herramientas debían ser capaces de ayudar a que los directivos de estas áreas: a)
Se
b)
Identificar
c) El 1. 2. 3. 4. 5. 6.
comprometieran oportunidades Implantaran
conjunto
en
un de
programa mejora
en
programas
seleccionado fue el compuesto por las Diagrama de Diagrama de Diagrama de Matrices de Diagramas Diagrama de proceso
de
Calidad
sus de siguientes
de
Total
organizaciones mejora herramientas: afinidad relaciones árbol priorización matriciales decisión
7. Diagrama de flechas Las siete herramientas de Gestión y Planificación son la herramientas de segunda generación utilizadas por grupos constituidos en el seno de una organización con el objetivo de resolver los problemas pocos e importantes (frente a los muchos y triviales en los que se utilizan las siete
herramientas clásicas), fundamentalmente durante la etapa de planificación del ciclo de mejora de la Calidad. Con posterioridad a su selección, estas siete herramientas han mostrado su utilidad en todo el mundo, habiéndose introducido en los Estados Unidos por el gabinete GOAL (Gorwth Opportunity Alliance of Lawrence)a mediados de los 80, utilizándose de forma sistemática en la aplicación del despliegue de la función Calidad (Quality Function Deployment, QFD). La mejora continua de la calidad es una estrategia de dirección que a través de una serie de actividades logra crear un habito de mejora continua en todo los procesos, tanto de fabricación como de gestión aumentando la eficacion de la empresa y por lo tanto su competitividad. En un programa de mejora continua es crítico para el éxito del programa seguir el ciclo de mejora de la
calidad
o
“rueda
de
Deming”:
•
Planificar
•
Hacer
•
Comprobar
•
Actuar
Las siete nuevas herramientas comprenden una metodología, cuya eficiencia ya ha sido probada en todos los sectores empresariales del mundo, para abordar la fase de planificación de la citada rueda de Deming. Esta segunda generación de herramientas son además, capaces de tratar con datos de “topo de ideas u opiniones”. Datos por lo general de tipo cua litativo y de difícil tratamiento.
Es necesario mencionar que estas herramientas son conocidas en ocasiones por otras denominaciones (p.e. el diagrama de proceso de decisión también es conocido como diagrama de decisión de acción). Y que han sufrido en ocasiones modificaciones y en otras ocasiones se les han añadido otras herramientas complementarias, como por ejemplo el método de jerarquización d Saaty. Lo cierto es que estas herramientas promueven la creatividad y son susceptibles de adaptarse a las distintas problemáticas que se puedan presentar, por lo que, salvo en lo que concierne al fondo (los conceptos claves en, los que se basa su utilización), sus usuarios no deben sentirse limitados ni en la forma ni en le numero de herramientas a utilizar. DIAGRAMA
DE
AFINIDAD
El diagrama de afinidad (DA) es la herramienta básica del conjunto de las siete herramientas. También es conocida con el nombre de “Método KJ” (Kawatika JIro es la persona que lo desarrollo).
Esta herramienta se utiliza para conseguir gran cantidad de datos en forma de ideas, opiniones, temas, aspectos a considerar y organizarlos en grupos en base a criterios afines de relación natural entre cada elemento. En muchas ocasiones, el mayor obstáculo que es necesario vencer en la fase de planificación de cualquier programa de mejora. Radica en el resultado obtenido en el pasado con otros programas similares. supone que aquello que tuvo en el pasado. Tampoco que lo tendrá en el futuro. Generalmente Por lo tanto sesepuede perpetuar prejuicios poréxito lo general no adecuados, son un obstáculo a la creatividad. Para abordar con una mínima esperanza de éxito un programa de mejora continua,
es
necesario
dejar
a
un
lado
estos
prejuicios,
haciendo
“tabula
rasa”.
El DA es una herramienta muy útil a la hora de lograr que un grapo de personas trate un tema determinado, no de forma lógica e intelectual, sino de forma creativa. Dada la dificultad existe en el tratamiento de las ideas, también es útil antela necesidad de organizar eficazmente el resultado obtenido, en lo que respecta a datos, con este esquema creativo. Es necesario tener en cuenta que la eficiencia en la herramienta es directamente proporcional al número de ideas o temas obtenido. En una sesión de medida hora se puede obtener más de 50 idas, numero muy superior por lo general al obtenido en una reunión de trabajo normal. Al igual que sucede con las herramientas Tormenta de ideas (herramienta pertenece a las siete herramienta clásicas), no solamente es necesario tener en cuenta esta ventaja en lo que a eficacia se refiere. Existe otra ventaja fundamental relacionada con la participación de las personas en la actividad del grupo. En una reunión clásica, muchas ideas se pierden en el “calor” de la discusión,
no siendo nunca consideradas. Sin embargo todos los participantes en un DA, al descubrir una vía de aplicación de sus ideas en la solución del problema o el proceso en cuestión, sienten que tienen un papel en este proceso, que son” Co -responsables” de las decisiones tomadas y su particip ación será mucho mas atractiva. Como resumen, el objetivo DA es analizar gran cantidad de datos en forma de ideas e identificar las ideas claves inherentes a los datos. Con términos de cocina, diríamos que el DA permite al equipo “reducir” una gran cantid ad de datos en un conjunto manejable de ideas claves. a) Los hechos o conceptos no se encuentren claramente delimitados, sean complejos o excesivamente amplios. El DA permitirá representar un “mapa” de estos hechos o conceptos.
b) Debido a la gran cantidad de incidencias detectadas, estas impidan determinar con claridad las causas concretas de la situación. c) Sea conveniente utilizar un nuevo enfoque, tanto en la actuación como en el análisis de un tema. El DA permitirá al grupo romper con los conceptos tradicionales, ampliando su campo de pensamiento. d) No se conozcan de forma clara los datos a dar para salir de una determinada situación, siendo necesario una ayuda para poner en marcha con éxito una solución. e)
Sea
necesario
el
consenso
de
un
grupo
para
abordar
una
actuación.
En aquellos casos en que el consenso de un grupo para abordar una actuación. a) b)
El Es
problema necesario
a disponer
abordar de
la
es solución
sencillo rápidamente
DIAGRAMA
DE
RELACIONES
El diagrama de relaciones es, junto con le diagrama de afinidad, una herramienta que se utiliza en la planificación general. A diferencia del diagrama de afinidad, el diagrama de relaciones utiliza el lado lógico del cerebro. Determina que sobre otra, esta relación mediante una flecha enidea tiene la influencia dirección de respetando la influencia. Las ideas unidas por flechas de este tipo formando un gráfico que puede ser interpretado identificando aquellas ideas que tiene la mayoría de las flechas saliendo de ellas o aquellas ideas que tienen la mayoría de las flechas entrando en ellas. Igual que el diagrama de afinidad, su objetivo
es identificar las distintas categorías en las que pueden agruparse las ideas representadas, siendo de gran utilidad realizar un diagrama de afinidad y un diagrama de relación a partir de un mismo conjunto de ideas, comparando los resultados obtenidos.
DIAGRAMA DE ARBOL El diagrama de árbol tiene una apariencia similar a la de un organigrama funcional de una organización. Su objeto es identificar ideas en detalle creciente. La pregunta que desencadena en proceso: ¿Cuál es el componente principal de esta idea?, pasando a continuación a responder a la
pregunta: ¿Cómo deberá llevarse a la practica esta idea? El diagrama de árbol es una herramienta que va mas allá que los diagramas de afinidad y de relaciones, siendo fundamental en la identificación de aquellos elementos que pudieran haberse olvidado durante el proceso de tormenta de ideas previo al diagrama de afinidad o al de relaciones.
MATRICES
DE
PRIORIZACIÓN
Esta herramienta se utiliza para establecer prioridades en tareas, actividades o temas, en base a criterios de ponderación conocidos. Utiliza una combinación de dos de las técnicas expuestas, el
diagrama de árbol y el diagrama matricial, reduciendo la opciones posibles a aquellas más eficientes y deseables esta herramienta reemplaza a la herramienta conocida como “Análisis Matricial” de datos
que formaba parte del conjunto inicial de las siete herramientas de gestión y planificación.
DIAGRAMA MATRICIAL El diagrama matricial es quizá la herramienta mas utilizada de las siete. Esta herramienta enfrenta dos conjuntos de ideas y las compara con el objetivo de decidir si existe correlación entre ellas. En el diseño uno de los mayores problemas es que por lo general se olvidan algunas cosas. El grafico matricial ayuda aprevenir estos olvidos siendo utilizado ampliamente en el desarrollo del Despliegue de lahabitual funciónen Calidad herramienta se relaciona con el diagrama de árbol, siendo practica le QFD(QFD). utiliza Esta las ideas componentes del diagrama de árbol como las filas y /o columnas del diagrama matricial.
DIAGRAMA DE PROCESO DE DECISIÓN El diagrama del proceso de decisión es una herramienta utilizada por lo general con posterioridad a la construcción de un análisis del Árbol de Fallos. Ambos gráficos tienen en común la capacidad de
detectar aquello que puede fallar en el proceso haciéndolo en ya conocido formato de árbol. La diferencia fundamental consiste en q el diagrama de proceso de decisión relacionada de forma explicita las contra medidas para todo aquello que puede fallar. Esta herramienta suele utilizarse en la planificación de actividades con emprendidas con anterioridad, la actividad consiste en identificar y registrar todo lo que puede fallar mejora sustancialmente la probabilidad de tener éxito en el proyecto abordado. El diagrama del proceso de decisión también es similar al diagrama de árbol con la diferencia de que el primero se desarrolla con un enfoque secuencial.
DIAGRAMA
DE
FLECHAS
El diagrama de flechas es una herramienta muy similar al PERT (Program Evaluation Review Technique) o al CPM (Critical Merhod Path). La diferencia fundamental es que tratándose de un método muy simplificado puede ser utilizado por la mayor las pero personas de lapequeña organización. Muchas personas conocen la existencia del método PERTparte o el de CPM solo una parte de ellas lo utilizan debido a su complejidad. El diagrama de flechas muestra los caminos paralelos existentes a la hora de desarrollar una actividad. El propósito de esta herramienta es determinar cual es el tiempo mínimo posible en la realización de un proyecto representando gráficamente todas
aquellas
actividades
que
puedan
realizarse
de
forma
simultanea.
José Francisco Villar Barrio. Las 7 nuevas herramientas para la mejora de la calidad. , 2da Edición PP.9-12.
Las 7 nuevas herramientas de la Gestión de la Calidad Keila Yeritze Rojas Gutiérrez
Administración 03.10.2016 3 minutos de lectura
calidadcalidad y gestión de la calidadherramientas de gestión de la calidadherramientas gerencialespioneros de la gestión de la calidad
Keila Yeritze Rojas Gutiérrez Administración de calidad INSTITUTO TECNOLÓGICO DE ORIZABA
ingenieros (JUSE) un gran analizó conjunto de técnicas y herramientas
de gestión existentes selecciono de entre ellas las denominadas “siete
nuevas herramientas de gestión y planificación”
del despliegue de la función
Calidad (QFD).
utilizan
las
siete herramientas clásicas)
EL CONTROL DE
CALIDAD Y LAS SIETE HERRAMIENTAS BÁSICAS[1] El Control de Calidad tuvo su srcen en la producción industrial masiva de principios del siglo XX, el desarrollo de los métodos de producción en cadena planteó el primer problema de calidad, en cuanto que ésta estaba ligada a la conformidad con las especificaciones de los productos y sus componentes: a una más alta conformidad (calidad), correspondería un número menor de desechos y reprocesos, con lo que el coste del proceso productivo, y del producto, se reduciría. Surgen entonces los primeros procedimientos de control de calidad. La función de calidad, bajo esta óptica clásica, se limita a la realización de una serie de observaciones que tienen como objetivo la verificación de la concordancia de los diferentes dispositivos y componentes a su especificación, previamente establecida. Los resultados de las observaciones permitirían separar el producto aceptable del no aceptable mediante la inspección final del producto ya terminado. En Estados Unidos, el liderazgo de Frederick Taylor y su “dirección científica” (Taylor, 1911) supuso la separación entre la planificación del trabajo y su ejecución: la planificación era realizada por
distintos especialistas mientras que los capataces y operarios ejecutaban la planificación hecha por aquellos. Desde el punto de vista del control de calidad, también se segregó la producción de la inspección. Se crearon entonces departamentos de inspección, llamados de “Control de Calidad” o de “Aseguramiento de la Calidad”, con la finalidad de separar los produc tos buenos de los defectuosos
de forma que éstos no llegaran al cliente. Si bien el aumento de la productividad fue evidente, se fomentó la idea de que la calidad era materia de los departamentos especializados en la inspección de la calidad. El concepto subyacente de gestión de la calidad era que cada departamento funcional entregaba su producto al siguiente y, finalmente, el departamento de calidad separaba la producción correcta de la incorrecta. En el desarrollo de los métodos de control de calidad se produjo un salto cualitativo con los estudios de Walter A. Shewhart, que entonces trabajaba en los Laboratorios Bell Telephone, quien a partir de la década de 1920 inició el perfeccionamiento del control de la calidad introduciendo el muestreo estadístico de los procesos. Definió el control de calidad en términos de variación provocada por causas asignables y causas aleatorias[2] e introdujo los gráficos de control de proceso como una herramienta para distinguir entre los dos tipos de variaciones. El control de calidad se desplaza entonces de la mera inspección final del producto, al control estadístico del proceso con el fin de determinar cuándo un proceso está sometido a variaciones en su comportamiento, tales que su resultado derivará en producto defectuoso, es decir, fuera de los límites de las especificaciones establecidas en el diseño. Shewhart hizo hincapié en que los procesos de producción deben ser controlados estadísticamente, de forma que sólo existan variaciones de causas ocasionales o aleatorias, para así mantenerlos bajo control. Sus trabajos fueron expuestos en Economic Control of Quality of Manufactured Products (Shewart, 1931).
La Introducción del Control de Calidad en Japón Durante la II Guerra Mundial, la industria de Estados Unidos llevó a cabo la producción de gran cantidad de material militar, para uso propio o para entrega a los aliados. Muchos de esos productos empleaban una tecnología nueva y sofisticada, por lo que era necesario asegurar su calidad. Los métodos estadísticos de control de calidad fueron entonces intensamente desarrollados en lo que supuso un fuerte impulso al moderno control de calidad.
En Japón, antes de la II Guerra Mundial, la aplicación del control de calidad era escasa. Japón elaboraba productos de baja calidad que eran vendidos a bajo precio. Tras el conflicto bélico, la ocupación militar del país por parte de Estados Unidos supuso el estímulo del moderno control de calidad, centrándose al principio en el sector de las telecomunicaciones al necesitar los militares estadounidenses que estos servicios funcionaran adecuadamente por razones logísticas, para extenderse posteriormente a otro tipo de industrias. En 1949 la Unión Japonesa de Científicos e Ingenieros (JUSE – Union of Japanese Scientists and Engineers) constituye un grupo de investigación sobre control de calidad. En 1950 Edwards
Deming es invitado a impartir una serie de cursos y seminarios que promueven fuertemente el uso del control estadístico de la calidad, que se había mostrado muy eficaz en la disminución de las causas asignables de variación de los procesos y en la reducción del personal encargado de efectuar la inspección. La aplicación del control estadístico de la calidad tuvo amplia difusión en las industrias, especialmente en el ámbito de la fabricación. Ello en un país con una elevadísima densidad de población que carece de materias primas, por lo que se consideró estratégico producir bienes con una calidad que facilitara la exportación. No obstante, el enfoque del control de calidad se mostró insuficiente ya que involucraba únicamente a ingenieros y personal de planta, producía rechazo en el personal y no implicaba suficientemente a la gerencia de las industrias.
Juran y el Control de Calidad Total En 1954, Joseph M. Juran visita Japón e imparte una serie de seminarios dirigidos a niveles directivos altos y medios, sensibilizándolos acerca de su papel en el control de la calidad. Esta visita de Juran marcó “una transición en las actividades de control de calidad en Japón ” (Ishikawa,
1985), en el sentido de no limitarlas a ingenieros y empleados de la línea operativa, sino de extenderla a toda la empresa, dando paso a lo que se denominó “control total de calidad”.
Esta perspectiva pone el énfasis en la participación total; en la cooperación de todos los departamentos y empleados. El control de calidad no ha de limitarse a la inspección, para evitar que los procesos generen productos defectuosos, y a los departamento de producción, sino que ha de extenderse a todas las actividades de la organización: desde el diseño de productos, a la fabricación, la garantía posventa, los subcontratistas y el resto de actividades auxiliares o de soporte, como la contabilidad o la administración del personal. Un planteamiento en el que puede reconocerse lo que más tarde se denominaría Gestión de la Calidad Total .
Desde el enfoque japonés, control de calidad total significa la participación de todo individuo en el control de calidad, y no únicamente de especialistas en calidad, de personal de producción o de miembros de la dirección.
También este punto de vista entraba en contradicción con los principios del taylorismo que, con su división entre planificación y ejecución, relegaba a los operarios al papel de seguir las órdenes y los procedimientos establecidos por los especialistas. Para canalizar la participación se impulsó, a partir de 1962, la creación de círculos de calidad. Un círculo de calidad es: “ Un grupo pequeño que desarrolla actividades de control de calidad
dentro de un mismo taller. Este pequeño grupo lleva a cabo continuamente, como parte de las actividades de control en toda la empresa, autodesarrollo y desarrollo mutuo, control y mejora dentro del taller utilizando técnicas de control de calidad con participación de todos los miembros” (Ishikawa, 1980).
No obstante las técnicas estadísticas del control de calidad poseían una cierta complejidad que impedía su uso por parte del personal no especializado en ellas. Era entonces necesario disponer de herramientas que no requirieran de un conocimiento experto en técnicas estadísticas y que, por tanto, pudieran ser aplicadas en los círculos de calidad. En 1968 Ishikawa propone un conjunto de técnicas estadísticas sencillas para ser aplicadas por los círculos de calidad. Según Ishikawa, con las siete herramientas básicas es posible resolver el 95% de los problemas que presenta una organización, sobre todo en el área de producción (Ishikawa, 1986).
Las Siete Herramientas Básicas de la Calidad Estas herramientas, que posteriormente fueron denominadas “ las siete herramientas básicas de
la calidad”, pueden ser descritas genéricamen te como métodos para la mejora continua y la solución de problemas. Las siete herramientas básicas de la calidad son:
Diagrama Causa – Efecto. Ayuda a identificar, clasificar y poner de manifiesto posibles causas, tanto de problemas específicos como de efectos deseados. Hoja de Comprobación. Registro de datos relativos a la ocurrencia de determinados sucesos, mediante de un método Gráficos Control.sencillo. Herramienta estadística utilizada para controlar y mejorar un proceso mediante el análisis de su variación a través del tiempo. Histograma. Gráfico de barras verticales que representa la distribución de frecuencias de un conjunto de datos. Diagrama de Pareto. Método de análisis que permite discriminar entre las causas más importantes de un problema (los pocos y vitales) y las que lo son menos (los muchos y triviales). Diagrama de Dispersión. Herramienta que ayuda a identificar la posible relación entre dos variables. Estratificación. Procedimiento consistente en clasificar los datos disponibles por grupos con similares características que muestra gráficamente la distribución de los datos que proceden de fuentes o condiciones diferentes. El éxito de estas técnicas radica en la capacidad que han demostrado para ser aplicadas en un amplio rango de problemas, desde el control de calidad hasta las áreas de producción, marketing y administración. Las organizaciones de servicios también son susceptibles de aplicarlas, aunque su uso comenzara en el ámbito industrial. Estas técnicas pueden ser manejadas por personas con una formación media, lo que ha hecho que sean la base de las estrategias de resolución de problemas en los círculos de calidad y, en general, en los equipos de trabajo conformados para acometer mejoras en actividades y procesos.
[1] El contenido de este post está basado en l a publicación: Talavera Pleguezuelos, C: “ Métodos y Herramientas de Mejora aplicados en la Administración Pública ” Ed: Unión Iberoamericana de Municipalistas. Granada, 2013. (ISBN: ISBN: 978-84-937777-6-0). Está por tanto protegido por derechos de autor, no autorizándose su reproducción sin autorización expresa y por escrito del autor. [2] Las causas aleatorias de variación son causas desconocidas y con poca significación, debidas al azar y presentes en todo proceso. Las causas asignables (específicas o imputables) no deben estar presentes en el proceso. Provocan variaciones significativas. Las causas aleatorias son de difícil identificación y eliminación. Las causas específicas, o asignables, sí pueden ser descubiertas y eliminadas, para alcanzar el objetivo de estabilizar el proceso.
Las 7 Nuevas Herramientas
¿Qué son las 7 nuevas herramientas? Origen y Justificación Dentro del variado espectro de las herramientas de gestión utilizadas en los procesos de Mejora Continua y normalmente reconocidas como de resolución de problemas, existen dos macro enfoques que la literatura sobre el tema diferencia claramente[1]. El primero de estos enfoques esta referido a las situaciones, tal ves más convencionales, donde la información está disponible y por lo tanto el mayor esfuerzo de los grupos de mejora reside en organizar y analizar los datos con un enfoque sistemático que permita obtener diagnósticas. aplica a áreas de producción y es bien conocido a través Este tipoconclusiones de enfoque generalmente del ciclo PDCA (Plan, Do, Check, Act)[2] y las siete herramientas básicas[3] que, entre otras, permiten obtener resultados muy satisfactorios en estas circunstancias. Estas herramientas, muy tradicionales en las aplicaciones realizadas por los equipos de mejora en todo el mundo (srcinalmente los círculos de control de calidad Japoneses de la década del 60`), tienen, sin embargo, alguna ambigüedad en su constitución como grupo. Las diferentes listas de siete herramientas se suceden en los libros especializados, manteniendo este número de componentes como factor común, pero variando la integración de manera leve, según sea el autor y la tendencia. La lista srcinal de JUSE (Unión Japonesa de Científicos e Ingenieros )[4], contemplaba las siguientes herramientas: 1. 2. 3. 4. 5.
Diagrama de Causa y Efecto Diagrama de Pareto Hojas de chequeo Histogramas Estratificación
6. 7.
Diagramas dispersión y correlación Gráficos dede control
Posteriores publicaciones y las experiencias de sucesivas aplicaciones, generaron modificaciones en esta lista, introduciendo los “gráficos” (en general), en reemplazo de la estratificación (que tal vez es más un concepto que una herramienta), o en otros casos los diagramas de flujo[5] como séptima herramienta. La permanencia del número siete como cantidad de herramientas de la lista no ha sido, en cambio, alterada por ningún autor. Esto, tal vez, este relacionado con el srcen de este tipo de denominaciones que debe buscarse en las ancestrales creencias de los principales autores Japoneses. Según Gitlow (1991), este número (además de ser considerado como “de suerte” en Japón), representa la cantidad de piezas básicas utilizadas por el guerrero Samurai al entrar en combate[6] (armadura, espada, espada larga, arco, flecha, capucha y casco), lo cual establece un significado especial que ha permitido mantener el número inalterado a pesar de las numerosas herramientas que existen para el análisis de problemas y que, de hecho, han sido utilizadas en diferentes ocasiones y en múltiples aplicaciones. Existe una clara relación entre las herramientas básicas, el mencionado ciclo PDCA y los, usualmente denominados “7 pasos QC” (una secuencia lógica y sistemática para aplicar el método científico a las etapas de detección, análisis y resolución de problemas)[7]
Correlación entre herramientas básicas y pasos del ciclo de mejora 7 pasos QC Selección del tema Recoger y analizar datos Analizar causas
7 herramientas básicas Lista de chequeo, gráficos, diagrama de Pareto, histogramas,, diagramas de dispersión, diagrama de causa y efecto.
Planear e implementar la solución Evaluar resultados
Estandarizar Reflexionar sobre el proceso
Ciclo PDCA Planificar
Ejecutar Lista de chequeo, gráficos, diagrama de Pareto, histogramas,, diagramas de dispersión, diagrama de causa y efecto, gráficos de control
Verificar
Actuar
Las herramientas de este primer grupo han sido masivamente utilizadas por millones de equipos de mejora en todo el mundo. Si bien las aplicaciones han alcanzado a todos los niveles organizacionales (desde operarios hasta gerentes), es más común su utilización en los niveles medios y bajos, que conforman mayoritariamente a los equipos de mejora. El segundo de los macro enfoques mencionados, corresponde a aquellas situaciones en donde no todos los datos para la resolución del problema están disponibles. Este enfoque, normalmente tipificado como el enfoque de diseño, ya que puede ser utilizado para el desarrollo de nuevos productos, está compuesto también por un conjunto de siete herramientas (se observa aquí nuevamente la importancia dada a la figura del número siete), que contrariamente a lo ocurrido con la lista anterior están precisamente definidas y son invariables en todos los textos que las desarrollan. La herramientas mencionadas (siete nuevas herramientas)[8], son las siguientes: 1. 2. 3. 4. 5. 6. 7.
Diagrama de relaciones Diagrama de afinidad (Método KJ) Diagrama sistemático o de árbol Diagrama matriz Matriz de análisis de datos PDPC (process decision program chart); Diagrama del proceso de decisiones Diagrama de flechas
Su utilización debe ser entendido dentro del marco de lo que comúnmente se conoce como mejora proactiva. Es decir, aquellas situaciones donde los cursos de acción posible son varios o no están claros y los datos existentes no pueden, desde su organización o análisis estadístico, establecer un diagnóstico indubitable. El enfoque sistemático de los procesos de Mejora Continua, puede dividirse en tres fases con distintas características y diferentes alternativas en cuanto a herramientas diagnósticas.
El control de procesos, alude fundamentalmente al concepto estadístico de “estado de control”, permitiendo establecer los límites, dentro de los cuales la variabilidad esta definida y puede ser garantizada. La mejora reactiva, se aplica en cambio a aquellas circunstancias donde la evidencia, a partir de los datos disponibles, muestra la necesidad de cambios para modificar uno o varios resultados de manera beneficiosa. La palabra “reactiva”, debe interpretarse aquí como una reacción frente al requerimiento que puede provenir de distintas fuentes (los clientes, el proceso, la tecnología, los materiales, los métodos, etc.). Finalmente el escenario de la mejora proactiva, como ya fue definida, se plantea como una manera de enfrentar aquellas situaciones más desafiantes, donde ni la información, ni los paradigamas instalados, permiten establecer con claridad las acciones necesarias para la mejora, o incluso, empeorando lo dicho, tanto los datos como los hábitos y preconceptos aceptados descartan la posibilidad de cambios beneficiosos, con argumentos aparentemente lógicos y basados en la experiencia de los actores. Es interesante analizar con algo más de detalle la importancia del punto que se está aquí planteando. Las fases de control de proceso y mejora reactiva previamente comentadas, son indudablemente, un avance significativo con relación a los tradicionales métodos de prueba y error, para la resolución de problemas crónicos. Si embargo, actúan dentro del marco de los paradigmas instalados y es, por lo tanto, poco probable que resulten en cambios “revolucionarios”. Las 7 nuevas herramientas, en general, y el diagrama de afinidad (método KJ), en particular, apuntan, en cambio, a resolver este problema en particular: ¿cómo innovar traspasando los límites de los paradigmas instalados?; ¿cómo hacer que la experiencia, acumulada a lo largo de años, no signifique un obstáculo para concebir nuevas y diferentes maneras de hacer las cosas?. Este es indudablemente un problema especial y de resolución no trivial. Thomas Kuhn (1962), en su libro “La estructura de las revoluciones científicas”, es sin duda quien mejor explica el concepto de paradigma. Si bien todas sus argumentaciones están referidas a la evolución científica, no resulta complicado trasladar estos conceptos al campo organizacional. La idea de Kuhn de progreso se establece alrededor del concepto de “capacidad para resolver problemas”. La incapacidad de un “viejo” paradigma para resolver problemas importantes permitirá su reemplazo por uno nuevo, aún cuando dicho reemplazo no se asume como algo natural o exento de dificultades, ya que el nuevo paradigma enfrentará severas resistencias y se le exigirá que satisfaga la resolución de algún nuevo problema extraordinario (que el viejo paradigma no podía explicar), sin dejar por ello de resolver los problemas que si eran resueltos por el viejo paradigma. Esta descripción es fácilmente trasladable al plano empresario, donde la mejora del proceso / producto deberá mostrar su capacidad para mejorar drásticamente los resultados (en el o los aspectos bajo estudio), sin dejar por ello de atender y mantener aquellas cuestiones que ya estaban precedentemente resultando satisfactorias. La visión tradicional de progreso, manifestada en el positivismo lógico, consideraba que la investigación científica tenía un desarrollo básicamente acumulativo. Es decir, las teorías confirmadas son inmunes a modificaciones posteriores, y por el contrario, cuando surge una teoría nueva másproceso amplia acumulativo que la existente, esta últimacomo se suma la primera. Por otro lado oeste se manifestaba unaapaulatina aproximación a la verdad. Conocemos en las organizaciones la frecuente argumentación, respecto de que hay una manera y solamente una de hacer determinadas cosas; por lo tanto esta “manera”, podrá ser
perfeccionada (he aquí el concepto acumulativo mencionado), pero de ninguna forma cambiada, ya que la experiencia de “años en la materia”, así lo demuestra. De acuerdo a la concepción Kuhniana de progreso podemos plantear dos diferencias fundamentales con la visión tradicional:
1.
La idea de progreso a partir de las revoluciones (según se definió en el punto anterior), contradice la concepción del proceso acumulativo, ya que, los cambios de paradigma no se corresponden con este supuesto positivista. Por el contrario, cuando se produce una revolución, las viejas teorías pierden vigencia dentro del nuevo paradigma. El concepto de “paulatina aproximación a la verdad”, también es negado por 2. Kuhn, quien considera que no existe una meta o algo predeterminado hacia lo cual se avanza. Esta regla la aplica incluso para los cambios de paradigma, considerando que no necesariamente llevan a los científicos más cerca de la verdad. No obstante lo anterior, Kuhn si admite que la ciencia normal (acumulativa), es eficiente para resolver problemas dentro del paradigma instalado. Esto aporta a extender la comprensión, alcance y precisión de dicho paradigma y es aceptado por Kuhn que esta resolución de problemas significa inevitablemente una forma de progreso. Para nosotros, y si bien los términos son ajenos a la literatura “Kuhniana”, se puede diferenciar aquí claramente, los alcances de nuestros enfoques para la mejora reactiva (dentro del paradigma) y la mejora proactiva como un intento, al menos, de establecer o alcanzar un cambio revolucionario que transgreda las fronteras de los hábitos y usos establecidos. Al decir de Kuhn, el científico (para nosotros el observador), trabaja en su propio mundo, habida cuenta que, el paradigma instalado es su único acceso al mismo. Según Gaeta y Gentile (1998), “Kuhn parece asumir, consecuentemente, una concepción idealista del mundo”. Es decir, las características de los objetos tiene relación con la actividad cognoscente del sujeto que observa. La lectura de los siguientes párrafos nos amplían y aclaran esta cuestión: “Aunque el mundo no cambia con un cambio de paradigma, el cien tífico después trabaja en un mundo diferente”[9] “ Sea lo que fuere lo que pueda ver el científico después de una revolución, está mirando aún el mismo mundo”[10]
Se confirma aquí por lo tanto la posible defensa de una postura más asociada al realismo metafísico que al idealismo anteriormente enunciado. Existe un mundo independiente del observador, sin embargo, la observación y el conocimiento que de ella se desprende, está condicionado por el paradigma a través del cual se accede. Gaeta y Gentile (1998), asocian esta dualidad Kuhniana, con las ideas de Kant en cuanto a la realidad fenoménica (el mundo que es percibido por el sujeto observador), conviviendo con la realidad nouménica (la realidad en si mismo).Según expresan estos mismos autores y tal como se desprende de lo anteriormente comentado, la diferencia principal estaría en que, para Kant, existe un único mundo fenoménico, mientras que para Kuhn, los “mundos construidos” son múltiples y dependen de los paradigmas que le dan acceso.
Podríamos finalmente concluir que, para Kuhn, existe un mundo real externo independiente de cualquier tipo de observación o conocimiento científico. Este mundo es inaccesible para el observador y por lo tanto la “verdad” es inalcanzable. Sin embargo, los paradigmas dominantes nos permiten construir un mundo, dentro de su contexto y con reglas inteligibles y aceptables en ese ámbito. Entender estos conceptos nos permiten establecer, con cierto grado de realismo, las dificultades inherentes al logro de cambios significativos dentro de escenarios con fuertes paradigmas instalados. Las técnicas proactivas y las 7 nuevas herramientas como instrumentos de las mismas, apuntan a generar un enfoque metodológico válido para recorrer tan difícil camino. Las experiencias acumuladas indican que es posible. Las 7 nuevas herramientas
Estas herramientas, denominadas también de planificación y dirección, creadas por el comité de investigaciones de JUSE (dirigido por Yoshinobu Nayatani), facilitan, como se explicó previamente, el abordaje de situaciones complejas con escasa o nula información cuantitativa. No existe para este “set” de herramientas una secuencia preestablecida, como ocurre en el caso de las herramientas básicas, que permitan su utilización secuencial en diferentes circunstancias. De hecho, en mucho casos, algunas de ellas pueden utilizarse en forma aislada para atender la necesidad de una situación particular. Una breve descripción de cada una nos permitirá entender mejor su posible uso y la aplicación desarrollada en este trabajo. ·
·
Diagrama de relaciones: Clarifica entrelazadas relaciones causales en problemas o situaciones complejas. Intenta contestar la pregunta ¿porqué sucede esto?. Se utiliza cuando la estructura del tema no es apta (por su complejidad), para la organización en familias que
propone el diagrama de Ishikawa. Diagrama de afinidad (método KJ): Es seguramente la herramienta más srcinal de este conjunto y su correcta aplicación puede generar las mayores cuotas de proactividad en un grupo. En general se aplica a la organización de datos verbales (ideas, opiniones, pensamientos, etc.), provenientes de una situación confusa, compleja o desordenada, para su posterior análisis en función de su afinidad. Intenta contestar la pregunta ¿qué sucede en esta situación?. Facilita el reconocimiento de las estructuras básicas cuando se exploran problemas o situaciones complejas. Permite identificar los factores intervinientes y sus mecanismos primarios de interacción.
·
Diagrama sistemático o de árbol: Se enfoca a encontrar los medios más apropiados para alcanzar fines u objetivos determinados. En general intenta contestar la pregunta ¿cómo?. Es una excelente herramienta para “desplegar” objetivos, alcanzando niveles de detalle que puedan luego ser adecuadamente manejables y asignables.
·
Diagrama matriz: Es una herramienta que promueve el pensamiento multidimensional. Puede configurarse desde matrices que interrelacionan dos conjuntos de variables, hasta otras que lo hacen con múltiples conjuntos. A menudo contesta la pregunta ¿cuál?, identificando que elementos deben ser modificados, ajustados o diseñados para satisfacer determinados requerimientos, por ejemplo del cliente. La herramienta conocida como QFD (Quality function deployment), utiliza varios esquemas de matriz interrelacionados para alcanzar un efectivo despliegue de la voz del cliente dentro de la organización.
·
Matriz de análisis de datos: Facilita el análisis de grandes cantidades de datos numéricos, de manera que los mismos puedan ser visualizados y comprendidos con menor dificultad. Es la única herramienta cuantitativa de este conjunto. Intenta contestar la pregunta ¿qué pautas o patrones muestran estos datos?. Existen varios enfoques, para su construcción, desde la concepción estadística clásica.
·
Diagrama del proceso de decisiones (PDPC): Permite analizar un proceso o flujo de actividades encadenadas, con el objetivo de anticipar acciones preventivas y contingentes, resultantes de las distintas alternativas de evolución que el proceso permita concebir. En general contesta la pregunta ¿qué pasaría si.......?. Es muy utilizado en problemas de seguridad o cuando un plan complejo debe ser garantizado en cuanto a eficacia de los resultados. Sus pariente cercanos son: el árbol de fallas, FTA (Fault tree análisis) y el análisis
·
de modos de falla, FMEA (failure mode and effect analysis). Diagrama de flechas: Una herramienta que utiliza las conocidas técnicas de PERT (program evaluation and review technics) y CPM (critical path method), para definir temporalmente sucesos y actividades determinando los “cuellos de botella”. Apunta a contestar la pregunta ¿cuándo tenemos que hacer esto?.