Copia GRATUITA de la Guía de implementación de Uptime Elements una vez que se suscriba a Reliability Weekly

Tu viaje comienza en Virtual Reliability Leadership Development Summit WTSS

Sign Up

Please use your business email address if applicable

Ha sido interés permanente de los técnicos, conocer la vida de un determinado componente industrial, sea este una unidad funcional, un equipo o un sistema: poder predecir el momento de la falla sobre bases racionales. Durante muchos años los esfuerzos para cumplir con este objetivo, se han direccionado al modelado matemático de características deterministas, pero los resultados obtenidos han sido desalentadores, observándose una dispersión de resultados que obliga a adoptar grandes coeficientes de seguridad.

La confiabilidad inicia su desarrollo durante la segunda guerra mundial y podemos decir que en el año 1945 se utilizan métodos avanzados para estimar probabilidades de fallas y expectativa de vida en componentes mecánicos, eléctricos y electrónicos usados en “la defensa y la industria aeroespacial”. En 1970 la Ingeniería de la Confiabilidad deja de ser exclusividad de “la defensa” y se aplica a plantas nucleares de generación de energía y posteriormente se generaliza su uso en plantas refinadoras de petróleo, químicas y petroquímicas.

En un gran esfuerzo para combinar el cálculo estadístico con la teoría de las probabilidades, se gesta la disciplina de la Ingeniería de la Confiabilidad, pero el avance significativo y decisivo se produce a partir de la profundización en la naturaleza aleatoria de los mecanismos de daño, los cuales son causa raíz de los deterioros y fallos de los equipos industriales.

La evidencia empírica nos demuestra, que los fenómenos que tienen un significado importante en la Ingeniería Industrial, se ajustan a leyes del tipo probabilista o sea están en el campo de la incertidumbre, y la forma de expresarlos matemáticamente para ser susceptibles al cálculo numérico es por medio de la probabilidad de acontecimiento del evento y no encuadrándolo en un algoritmo matemático determinista.

En el avance del conocimiento sobre el comportamiento de una determinada ley natural, se evolucionó por aproximaciones sucesivas, cada vez más representativas de la realidad. Dado un conjunto de valores obtenidos en la medición específica de fallos de un equipo industrial, el parámetro más utilizado fue el simple promedio de los mismos, a pesar de las limitaciones que todos conocemos, una mejora en la apreciación del evento se produce al incorporar toda una familia de parámetros que miden el desvío de la dispersión con relación a la media.

Aceptada la característica aleatoria de la naturaleza de los mecanismos de deterioro, que conducen al fallo de los equipos, todo el esfuerzo de los técnicos en confiabilidad se concentra en conocer cual es la "función de distribución de probabilidades de fallas" que mejor representa a los equipos y sistemas industriales, siguiendo este objetivo se establecen dos modalidades de resolución, una es modelar matemáticamente esta función sobre valores empíricos (distribución de Weibull) y la otra es reconocer que hay distribuciones estudiadas y evaluadas como de alta representatividad para grupos de leyes naturales: exponencial negativa, logarítmica de la normal y normal.

Actualmente el conocimiento de la Ingeniería de la Confiabilidad es necesaria para estar en condiciones de aplicar ó entender las regulaciones internacionales, relacionadas con evaluación de riesgos industriales, disponibilidad y confiabilidad productiva de los equipos de proceso.

El Ing. Héctor Ecay es profesor del módulo “Confiabilidad, Mantenibilidad y Riesgo” que forma parte del Programa de Ingeniería y Gestión del Mantenimiento que dicta la Facultad de Ingeniería de la Universidad Austral.

ChatGPT with
ReliabilityWeb:
Find Your Answers Fast
Start