¿Por qué elegir la inferencia de machine learning de IoT Greengrass?
AWS IoT Greengrass facilita realizar las inferencias de machine learning (ML) de manera local en los dispositivos con modelos que están creados, entrenados y optimizados en la nube. AWS IoT Greengrass da la flexibilidad de usar los modelos de machine learning entrenados en Amazon SageMaker o traer su modelo entrenado previamente y almacenado en Simple Storage Service (Amazon S3).
El machine learning usa algoritmos estadísticos que aprenden a partir de los datos existentes, un proceso llamado entrenamiento, a fin de tomar decisiones acerca de datos nuevos, un proceso llamado inferencia. Durante el entrenamiento, se identifican los patrones y las relaciones en los datos a fin de crear un modelo. El modelo permite a un sistema tomar decisiones inteligentes en relación con datos que no encontró anteriormente. Al optimizar los modelos se comprime el tamaño del modelo para que se ejecute rápidamente. Capacitar y optimizar modelos de machine learning requiere grandes cantidades de recursos informáticos, por lo que resulta adecuado para la nube. Sin embargo, la inferencia necesita una capacidad informática mucho menor y a menudo se realiza en tiempo real cuando se encuentran disponibles datos nuevos. La obtención de resultados de inferencia con un nivel de latencia muy bajo es importante para garantizar que sus aplicaciones con IoT puedan responder rápidamente ante eventos locales.
AWS IoT Greengrass le da lo mejor de ambos recursos. Use los modelos de machine learning que están creados, capacitados y optimizados en la nube y ejecute la inferencia de manera local en los dispositivos. Por ejemplo, puede crear un modelo predictivo en SageMaker para el análisis de detección de escena, optimizarlo para ejecutar en cualquier cámara y, luego, implementarlo para predecir actividad sospechosa y enviar un alerta. Los datos recopilados de la inferencia que se ejecutan en AWS IoT Greengrass se pueden enviar de nuevo a SageMaker donde se pueden etiquetar y usar para mejorar de manera continua la calidad de los modelos de machine learning.
Beneficios
Flexibilidad
AWS IoT Greengrass incluye Amazon SageMaker Neo Deep Learning Runtime (DLR), Apache MXNet, TensorFlow y paquetes Chainer prediseñados para dispositivos con tecnología Intel Atom, NVIDIA Jetson TX2 y Raspberry Pi para que no tenga que crear ni configurar un marco de machine learning para sus dispositivos desde cero. Además, funciona con otros marcos populares, como PyTorch y Caffe2. Si usa Amazon SageMaker Neo con AWS IoT Greengrass, los modelos escritos en estos marcos se convierten en código portátil que se ejecutará en cualquier dispositivo AWS IoT Greengrass que incluya el tiempo de ejecución Neo para que no tenga que hacer un ajuste adicional en el borde.
Despliegue sencillo de modelos en sus dispositivos conectados
AWS IoT Greengrass facilita la implementación de su modelo de machine learning desde la nube en sus dispositivos. Con solo unos clics en la consola de AWS IoT Greengrass, puede ubicar modelos entrenados en Amazon SageMaker o Simple Storage Service (Amazon S3), seleccionar el modelo deseado e implementarlo en los dispositivos de destino. Sus modelos se implementarán en el dispositivo conectado que usted elija.
Rendimiento de inferencia acelerado
Mediante la integración con Amazon SageMaker y el compilador de aprendizaje profundo Neo, puede implementar modelos de machine learning con un tiempo de ejecución optimizado que se ejecuta hasta dos veces más rápido en comparación con el ajuste manual o con los marcos de machine learning. AWS IoT Greengrass también le brinda acceso a aceleradores de hardware, como GPU en sus dispositivos, al proporcionar tiempos de ejecución creados previamente para los marcos de machine learning comunes y los dispositivos de destino, como el panel Nvidia Jetson TX2.
Ejecutar inferencia en más dispositivos
Cuando usa la integración con Amazon SageMaker y los compiladores Neo, los modelos están optimizados con menos de una décima de superficie de memoria para que puedan ejecutarse en dispositivos de recursos restringidos, tales como las cámaras de seguridad y los activadores.
Ejecución más sencilla de la inferencia en los dispositivos conectados
Ejecutar la inferencia de manera local en los dispositivos que se ejecutan en AWS IoT Greengrass reduce la latencia y el costo de enviar los datos del dispositivo a la nube para hacer una predicción. En vez de enviar todos los datos a la nube para llevar adelante la inferencia de aprendizaje automático, ejecute la inferencia directamente en el dispositivo.
Crear modelos más precisos
Con AWS IoT Greengrass, puede realizar inferencia y registrar los resultados, detectar valores atípicos y enviar datos de regreso a la nube y a Amazon SageMaker, donde se pueden reclasificar, etiquetar y usar para mejorar el modelo de machine learning.
Casos de uso
Clientes destacados
AWS IoT Greengrass ayuda a Yanmar a aumentar el nivel de inteligencia de las operaciones de invernadero mediante la detección e identificación automáticas de las principales etapas de crecimiento de vegetales con el fin de producir más cultivos.
The Electronic Caregiver garantiza un nivel de atención de alta calidad con AWS IoT Greengrass ML Inference y puede utilizar modelos de aprendizaje automático directamente en dispositivos de borde para aumentar la protección de los pacientes.
Con AWS IoT Greengrass, Vantage Power utiliza modelos de aprendizaje automático en vehículos particulares para detectar fallas de batería con un mes de anticipación.