Copia GRATUITA de la Guía de implementación de Uptime Elements una vez que se suscriba a Reliability Weekly

Tu viaje comienza en Virtual Reliability Leadership Development Summit WTSS

Sign Up

Please use your business email address if applicable

Inteligencia artificial: un manual básico para la comunidad de la confiabilidad

Artificial Intelligence: A Primer for the Reliability Community

Rajiv Anand

La inteligencia artificial o AI (por sus siglas en inglés) es la simulación de procesos de inteligencia humana realizada por máquinas, especialmente sistemas informáticos. Estos procesos incluyen:

APRENDIZAJE: la adquisición de información y reglas para usar la información;

RAZONAMIENTO: usar las reglas para llegar a conclusiones aproximadas o definitivas;

AUTOCORRECCIÓN: hacer ajustes automáticamente.

Por lo tanto, se puede definir la AI como la simulación y automatización de la cognición usando computadoras

Los procesos de la inteligencia humana se denominan en conjunto cognición. Por lo tanto, se puede definir la AI como “la simulación y auto­matización de la cognición usando computadoras”. Aplicaciones particulares de AI incluyen sistemas expertos, reconocimiento de voz y visión artificial.

La AI, en sí misma, es un término amplio que incluye cosas como el reconocimiento del lenguaje natural. Los sistemas expertos basados en reglas que en el pasado fueron creados para aplicaciones industriales, como el estado de la maquinaria, son la forma más simple de la AI. En el contexto del Internet Industrial de las Cosas (IIoT), la Industria 4.0 o la industria inteligente, el subconjunto específico de AI que es relevante es el aprendizaje automático.

¿Qué es aprendizaje automático (ML)?

Automático, en este contexto, es cualquier sistema computarizado: desde los conjuntos de computadoras (a menudo en la nube) hasta sensores pequeños y muchos más en el futuro. Las personas han usado computadoras durante décadas para resolver problemas. Un programa que se ejecuta en una computadora, cuando se le dan algunas entradas, proporciona una salida. La técnica de programación utilizada en este caso se llama programación explícita. Es explícita porque se escribe un conjunto de instrucciones (es decir, un programa) que resuelve repetidamente el problema según dichas instrucciones (es decir, lógica). Dos puntos a tener en cuenta sobre este tipo de computación:

  • un ser humano da un conjunto de instrucciones sobre cómo resolver el problema
  • el programa no"aprenderá" ni mejorará con la experiencia.

El aprendizaje automático (ML) se diferencia de la programación explícita de dos maneras.

  1. El ML crea el programa. Esto se conoce como un algoritmo, modelo y, algunas veces, agente que aprende de los datos dados.
  2. La capacidad del ML para resolver el problema mejora con la experiencia. En otras palabras, el ML aprende. ¿Puede ver la similitud con el aprendizaje humano?

¿Cómo ocurre este aprendizaje?

En realidad, no es muy diferente al de los seres humanos: educación (es decir, aprender de los ejemplos), curiosidad, intuición, experiencia, éxito (es decir, recompensas) y fallas.

Aprendizaje supervisado

El método “aprendizaje por medio de ejemplos” del ML se conoce como aprendizaje supervisado. Los seres humanos proporcionan a la computadora una gran cantidad de datos para los diferentes atributos o variables relacionadas con un objeto (p. ej., una bomba) o una situación (p. ej., cavitación). Estos atributos en el ML se conocen como características. Si creara un modelo de ML para determinar el estado de la bomba, la presión, el flujo, la vibración y la temperatura serían características. Ahora, digamos que su algoritmo era para detectar cuándo es más probable que ocurra la cavitación. Usted tiene muchos datos históricos sobre diferentes características y ejemplos de cuando ocurrió una cavitación. En el ML estos ejemplos se conocen como etiquetas. Cuando se está logrando la cavitación, comienzan a producirse ciertas correlaciones entre las características. Si se muestran suficientes ejemplos de características y etiquetas, el algoritmo trata de aproximar una función o, sencillamente, crear una representación matemática que se pueda usar en el futuro para reconocer correlaciones similares de características (es decir, patrones) para predecir el resultado (cavitación). En “aproximar una función”, la palabra clave es aproximar. La mayoría de los algoritmos del ML tienen su origen en la estadística, por lo que están sujetos a factores tales como probabilidades y aproximación. ¿Qué tan bien esta función podrá detectar patrones en el futuro para los que no se hayan visto etiquetas o ejemplos explícitos? En el ML la pregunta es: ¿cuán bien los generalizará? Allí es donde los científicos de datos ponen la magia, ¡pero las explicaciones pueden ser demasiado técnicas! Sin embargo, las cosas importantes que los expertos en activos deben saber son:

  • para el aprendizaje supervisado, usted necesita la medición de las características (¿recuerda el IIoT?);
  • muchos datos sobre las características;;
  • datos etiquetados sobre la situación (es decir, resultado).

La cantidad y la calidad de los datos son importantes. Si le ha proporcionado muy pocos datos al algoritmo, es probable que no generalice bien o, como dicen en el ML, tendrá un sesgo y los sesgos terminan en malas decisiones. Si la calidad de los datos es mala, habrá entrenado a su modelo con interferencias y, por tanto, el modelo no será muy preciso.

Aprendizaje no supervisado

¿Qué sucede si no tiene muchos datos etiquetados? Ahí es donde el aprendizaje no supervisado, similar al aprendizaje por curiosidad en los seres humanos, se vuelve útil. Dada una gran cantidad de datos, el algoritmo los explora y encuentra patrones únicos o grupos de correlaciones de características y puede aproximar una función para indicar la diferencia entre similar y distinto, normal y anormal y “pertenece a la familia” o es un valor atípico. En comparación con el aprendizaje supervisado, generalmente se requieren muchos más datos para el aprendizaje no supervisado.

El aprendizaje no supervisado se usa comúnmente para la detección de anomalías y valores atípicos.

Aprendizaje profundo

El aprendizaje profundo, una forma especializada de aprendizaje automático que no aplica un enfoque estadístico, imita el funcionamiento de las neuronas del cerebro humano. Cada neurona calcula una función y le comunica los resultados a una neurona en la siguiente capa, como la sinapsis en el cerebro humano. Esta luego realiza la función de cálculo y así sucesivamente hasta que se pueda computar una respuesta. Cada capa no tiene solo una, sino múltiples neuronas, y la salida de cualquier neurona recibe un significado o peso. Encontrar los pesos correctos de una salida neuronal específica en cada capa determina la precisión de la salida. Esto es similar a la formación de la intuición humana y otros conocimientos (p. ej., objeto, reconocimiento del color). Y al igual que con la intuición o cognición humana, no es fácil interpretar cómo el algoritmo de aprendizaje profundo llega a la respuesta. Sin embargo, igual que la intuición humana, se necesitan muchos datos para aprender; generalmente es mejor controlando el “ruido” y puede ser muy preciso.

El aprendizaje profundo se usa comúnmente para reconocimiento de imágenes y de voz.

Hay otras técnicas de aprendizaje automático, como el aprendizaje por refuerzo y las redes generativas antagónicas, temas que se abordarán en artículos posteriores.

Aplicación

Un modelo creado usando cualquiera de las técnicas de aprendizaje automático descritas anteriormente se conecta a datos de proceso, eléctricos y estado en tiempo real para proporcionar predicciones en tiempo real. Sin embargo, para poder calificarlo como un verdadero sistema basado en aprendizaje automático, el modelo no puede ser estático; su aprendizaje debe mejorar con el tiempo, ya que está expuesto a nuevos datos y comentarios de los usuarios.

Internet Industrial de las Cosas (IIoT)

¿Cómo se relaciona el IIoT con el ML o viceversa? Probablemente ya tenga la respuesta. Para desarrollar un modelo de predicción (es decir, mantenimiento predictivo real), necesita tener las características. Estas características provienen de los sensores instalados en el activo. Además, el IIoT es solo una palabra de moda para los sensores instalados en los activos industriales.

En el contexto del ML para la Gestión de la Condición de Activos (GCA), los sensores no son necesariamente sensores de condición, como de vibración. La predicción de la salud de los activos utilizando el ML se puede hacer sin sensores de condición para fallas inducidas por el proceso o el uso combinado de sensores de proceso y condición. También se puede aplicar simplemente para automatizar el mantenimiento basado en la condición (CBM), como el primer análisis de los datos de vibración.

Rajiv Anand

Rajiv Anand, is the cofounder and CEO of Quartic.ai, a company focused on providing machine learning and artificial intelligence solutions for industrial applications, industrial IoT and smart industry. Rajiv held key engineering, management and leadership positions with Emerson’s Lakeside Process Controls prior to starting Quartic.ai. Rajiv spent a year researching industrial IoT and machine learning, and advising technology companies and customers on digital manufacturing strategies.  www.quartic.ai

ChatGPT with
ReliabilityWeb:
Find Your Answers Fast
Start