Instancias P3 de Amazon EC2
Las instancias P3 de Amazon EC2 ofrecen informática de alto rendimiento en la nube con hasta 8 GPU NVIDIA® V100 Tensor Core y hasta 100 Gbps de rendimiento de red para el aprendizaje automático y las aplicaciones HPC. Estas instancias ofrecen hasta un petaflop de rendimiento de precisión combinada por instancia para acelerar significativamente el aprendizaje automático y las aplicaciones de informática de alto rendimiento. Se ha probado que las instancias P3 de Amazon EC2 reducen los tiempos de entrenamiento de aprendizaje automático de días a minutos, además de aumentar entre tres y cuatro veces el número de simulaciones completadas para la informática de alto rendimiento.
Con un ancho de banda de red hasta cuatro veces mayor que el de las instancias P3.16xlarge, las instancias P3dn.24xlarge de Amazon EC2 son la última incorporación a la familia P3, optimizada para el machine learning distribuido y las aplicaciones HPC. Estas instancias proporcionan hasta 100 Gbps de rendimiento de redes, 96 vCPU escalables Intel® Xeon® Scalable (Skylake), 8 GPU NVIDIA® V100 Tensor Core con 32 GB de memoria cada una y 1,8 TB de almacenamiento SSD local basado en NVMe. Las instancias P3dn.24xlarge también admiten Elastic Fabric Adapter (EFA) que acelera las aplicaciones de machine learning distribuidas que utilizan la Biblioteca de comunicaciones colectivas de NVIDIA (NVIDIA Collective Communications Library, NCCL). EFA puede escalar a miles de GPU, lo que mejora significativamente el rendimiento y la escalabilidad de los modelos de entrenamiento de aprendizaje profundo, lo que permite obtener resultados más rápidos.
Beneficios
Reducción del tiempo de entrenamiento para el aprendizaje automático de días a minutos
Para los científicos de datos, los investigadores y los desarrolladores que necesiten acelerar las aplicaciones de aprendizaje automático, las instancias P3 de Amazon EC2 son las más rápidas en la nube para el entrenamiento de aprendizaje automático. Las instancias P3 de Amazon EC2 incluyen ocho GPU NVIDIA V100 Tensor Core de última generación y ofrecen hasta un petaflop de rendimiento de precisión combinada para agilizar significativamente las cargas de trabajo de aprendizaje automático. El entrenamiento de modelos más ágil puede permitir que los científicos de datos y los ingenieros de aprendizaje automático iteren en menos tiempo, entrenen más modelos e incrementen el nivel de precisión.
La solución más rentable del sector para el entrenamiento de aprendizaje automático
Una de las instancias de GPU más potentes en la nube, combinada con planes de precios flexibles, da como resultado una solución excepcionalmente rentable para el entrenamiento de aprendizaje automático. Al igual que sucede con las instancias Amazon EC2 en general, las instancias P3 están disponibles como instancias bajo demanda, reservadas o spot. Las instancias de spot aprovechan la capacidad no utilizada de instancias EC2 y pueden reducir significativamente los costos de Amazon EC2 con un descuento de hasta el 70 % sobre los precios bajo demanda.
Informática de alto rendimiento flexible y potente
A diferencia de los sistemas en las instalaciones, ejecutar tareas de informática de alto rendimiento en las instancias P3 de Amazon EC2 ofrece una capacidad prácticamente ilimitada para la escalabilidad horizontal de su infraestructura y la flexibilidad para cambiar los recursos con facilidad tan a menudo como lo requiera su carga de trabajo. Puede configurar sus recursos para cumplir con las demandas de su aplicación, lanzar un clúster de informática de alto rendimiento en cuestión de minutos y pagar solo por lo que usa.
Capacidad de comenzar a crear inmediatamente
Utilice imágenes de Docker preempaquetadas para implementar entornos de aprendizaje profundo en cuestión de minutos. Las imágenes contienen las herramientas y las bibliotecas de marcos de aprendizaje profundo (actualmente, TensorFlow y Apache MXNet) necesarias. Además, se sometieron a pruebas integrales. Puede añadir fácilmente bibliotecas y herramientas propias por encima de dichas imágenes para lograr un mayor nivel de control en las tareas de monitorización, conformidad y procesamiento de datos. Además, las instancias P3 de Amazon EC2 trabajan conjunta y continuamente con Amazon SageMaker para ofrecerle una plataforma de aprendizaje automático completa, eficiente e intuitiva. Amazon SageMaker es una plataforma de aprendizaje automático completamente administrada que le permite crear, entrenar e implementar modelos de aprendizaje automático rápida y fácilmente. Además, las instancias P3 de Amazon EC2 pueden integrarse con las imágenes de máquina de Amazon (AMI) de AWS Deep Learning que están preinstaladas con marcos de aprendizaje profundo populares. De este modo, resulta más rápido y fácil comenzar con el entrenamiento y la inferencia del aprendizaje automático.
Entrenamiento de aprendizaje automático escalable con nodos múltiples
Puede utilizar varias instancias P3 de Amazon EC2 con un rendimiento de red de hasta 100 Gbps para entrenar rápidamente los modelos de aprendizaje automático. Un mayor rendimiento de red permite a los desarrolladores eliminar los cuellos de botella en la transferencia de datos y escalar eficientemente sus trabajos de entrenamiento de modelos en múltiples instancias P3. Los clientes han podido entrenar ResNet-50, un modelo común de clasificación de imágenes, en una precisión estándar del sector en solo 18 minutos utilizando 16 instancias P3. Este nivel de rendimiento antes era inalcanzable para la gran mayoría de los clientes de aprendizaje automático, ya que requería una gran inversión de capital para crear clústeres de GPU locales. Con las instancias P3 y su disponibilidad a través de un modelo de uso bajo demanda, este nivel de rendimiento ahora está al alcance de todos los desarrolladores e ingenieros de aprendizaje automático. Además, las instancias P3dn.24xlarge admiten Elastic Fabric Adapter (EFA) que utiliza NVIDIA Collective Communications Library (NCCL) para escalar a miles de GPU.
Compatibilidad con todos los principales marcos de aprendizaje automático
Las instancias P3 de Amazon EC2 admiten todos los principales marcos de aprendizaje automático, incluidos TensorFlow, PyTorch, Apache MXNet, Caffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Chainer, Theano, Keras, Gluon y Torch. Dispone de la flexibilidad para elegir el marco que mejor se adapte a su aplicación.
Historias de clientes
Airbnb actualmente utiliza el aprendizaje automático para optimizar las recomendaciones de búsqueda y para mejorar las indicaciones sobre precios dinámicos de los anfitriones, lo que se traduce en un mayor número de reservas concretadas. Con las instancias P3 de Amazon EC2, Airbnb puede ejecutar cargas de trabajo de entrenamiento con mayor rapidez, iterar más, crear mejores modelos de aprendizaje automático y reducir los costos.
Celgene es una empresa mundial de biotecnología que actualmente desarrolla terapias personalizadas que asocian los tratamientos con los pacientes. La empresa ejecuta sus cargas de trabajo de HPC para secuenciación genómica y simulación química de próxima generación en las instancias P3 de Amazon EC2. Gracias a esta potencia de cómputo, Celgene puede entrenar modelos de aprendizaje profundo para diferenciar células benignas de células malignas. Antes de utilizar las instancias P3, ejecutar trabajos informáticos a gran escala requería dos meses. Ahora, solo se necesitan cuatro horas. La tecnología de AWS permitió que Celgene acelere el desarrollo de terapias con medicamentos para tratar el cáncer y las enfermedades inflamatorias.
Hyperconnect se especializa en la aplicación de nuevas tecnologías en función del aprendizaje automático para el procesamiento de video e imagen y fue la primera empresa en desarrollar webRTC para plataformas móviles.
“Hyperconnect utiliza la clasificación de imágenes basadas en IA en la aplicación de comunicación por video a fin de reconocer el entorno actual en el que se encuentra un usuario. Redujimos el tiempo de entrenamiento de nuestro modelo de ML de más de una semana a menos de un día con la migración de estaciones de trabajo en las instalaciones a múltiples instancias P3 de Amazon EC2 con Horovod. Con el uso de PyTorch como nuestro marco de aprendizaje automático, podemos desarrollar modelos rápidamente y aprovechar las bibliotecas disponibles en la comunidad de código abierto”.
Sungjoo Ha, director del laboratorio de IA, Hyperconnect
NerdWallet es una empresa emergente financiera personal que ofrece herramientas y consejos que facilitan al cliente pagar una deuda, seleccionar los mejores servicios y productos financieros y enfrentar metas importantes, como la compra de una casa o los ahorros para la jubilación. La empresa se basa en gran medida en la ciencia de datos y el aprendizaje automático (ML) a fin de conectar a los clientes con productos financieros personalizados.
El uso de las instancias P3 de Amazon EC2 y Amazon SageMaker con las GPU NVIDIA V100 Tensor Core también mejoró el rendimiento y la flexibilidad de NerdWallet y redujo el tiempo requerido para que los científicos de datos entrenen los modelos de aprendizaje automático. “Solía tomarnos meses lanzar e iterar modelos, ahora solo nos lleva días”,
Ryan Kirkman, gerente principal de ingeniería, NerdWallet
Instancias P3 de Amazon EC2 y Amazon SageMaker
La manera más rápida de entrenar y ejecutar modelos de aprendizaje automático
Amazon SageMaker es un servicio completamente administrado que sirve para crear, entrenar e implementar modelos de aprendizaje automático. Cuando se usan con las instancias P3 de Amazon EC2, los clientes pueden escalar rápidamente decenas, cientos o miles de GPU para entrenar un modelo rápidamente a cualquier escala sin preocuparse por configurar clústeres y canalizaciones de datos. También puede acceder fácilmente a los recursos de Amazon Virtual Private Cloud (Amazon VPC) para entrenar y alojar los flujos de trabajo en Amazon SageMaker. Con esta característica, puede usar buckets de Amazon Simple Storage Service (Amazon S3) que solo son accesibles mediante su VPC para almacenar datos de entrenamiento, como así también para almacenar y alojar los artefactos de modelo derivados del proceso de entrenamiento. Además de S3, los modelos pueden acceder a todos los demás recursos de AWS contenidos en la VPC. Más información.
Creación
Amazon SageMaker facilita la creación, el entrenamiento y la implementación de modelos de aprendizaje automático y su preparación para el entrenamiento. Proporciona todo lo necesario para conectarse rápidamente a los datos de entrenamiento y para seleccionar y optimizar el mejor algoritmo y marco de trabajo para la aplicación. Amazon SageMaker incluye cuadernos de Jupyter alojados que facilitan el análisis y la visualización de los datos de entrenamiento almacenados en Amazon S3. También puede usar una instancia de bloc de notas para escribir el código a los fines de crear trabajos de entrenamiento de modelos, implementar modelos para el alojamiento de Amazon SageMaker y evaluar o validar sus modelos.
Entrenamiento
Puede comenzar a entrenar su modelo con un solo clic en la consola o con una llamada a la API. Amazon SageMaker viene preconfigurado con las versiones más recientes de TensorFlow y Apache MXNet, y con compatibilidad para bibliotecas CUDA9 a los fines de lograr un nivel de rendimiento óptimo con las GPU NVIDIA. Además, la optimización de los hiperparámetros se puede adaptar automáticamente a su modelo al ajustar de manera inteligente diferentes combinaciones de parámetros de modelo para alcanzar rápidamente las predicciones más precisas. Para necesidades de mayor escala, puede aumentar la escala a decenas de instancias para respaldar la creación más ágil de modelos.
Implementación
Después del entrenamiento, puede usar un solo clic para implementar su modelo en las instancias Amazon EC2 de escalado automático en varias zonas de disponibilidad. En producción, Amazon SageMaker administra la infraestructura informática por usted para realizar comprobaciones de estado, implementar parches de seguridad y realizar otras tareas de mantenimientos de rutina, todo con registro y monitoreo de Amazon CloudWatch integrados.
Instancias P3 de Amazon EC2 y AMI de aprendizaje profundo de AWS
Entornos de desarrollo preconfigurados para comenzar a crear aplicaciones de aprendizaje profundo con rapidez
Las AMI de aprendizaje profundo de AWS, una alternativa a Amazon SageMaker para los desarrolladores que tienen requisitos más personalizados, ofrecen a los profesionales de machine learning y a los investigadores la infraestructura y las herramientas para agilizar las tareas de aprendizaje profundo en la nube a cualquier escala. Puede lanzar rápidamente instancias P3 de Amazon EC2 con marcos de aprendizaje profundo conocidos que se instalaron con anterioridad, como TensorFlow, PyTorch, Apache MXNet, Microsoft Cognitive Toolkit, Caffe, Caffe2, Theano, Torch, Chainer, Gluon y Keras, para entrenar modelos de inteligencia artificial personalizados y sofisticados, probar algoritmos nuevos o aprender nuevas técnicas y habilidades. Más información >>
Instancias P3 de Amazon EC2 y computación de alto rendimiento
Resuelva problemas informáticos a gran escala y obtenga nueva información con la potencia de la informática de alto rendimiento en AWS
Las instancias P3 de Amazon EC2 son una plataforma ideal para ejecutar simulaciones de ingeniería, finanza computacional, análisis sísmico, modelado molecular, genómica, representaciones y otras cargas de trabajo informáticas con GPU. La informática de alto rendimiento (HPC) permite a los científicos e ingenieros resolver estos problemas complejos que exigen una gran capacidad informática. Con frecuencia, las aplicaciones de HPC exigen un alto nivel de rendimiento de red, almacenamiento ágil, gran capacidad de memoria, capacidades informáticas altas, o todas estas características juntas. AWS permite agilizar las investigaciones y disminuir los plazos de obtención de resultados mediante la ejecución de HPC en la nube y el escalado de un mayor número de tareas paralelas del que sería posible en la mayoría de los entornos en las instalaciones. Por ejemplo, las instancias P3dn.24xlarge admiten Elastic Fabric Adapter (EFA) que permite que las aplicaciones HPC que utilizan Message Passing Interface (MPI) escalen a miles de GPU. AWS ayuda a reducir costos, ya que ofrece soluciones optimizadas para aplicaciones específicas sin la necesidad de realizar grandes inversiones de capital. Más información >>
Compatibilidad con NVIDIA RTX Virtual Workstation
Las AMI de NVIDIA RTX Virtual Workstation entregan un alto rendimiento de gráficos por medio de potentes instancias P3 con GPU NVIDIA Volta V100 que se ejecutan en la nube de AWS. Estas AMI tienen el último software de gráficos de las GPU NVIDIA preinstalado junto con los últimos controladores RTX y las certificaciones NVIDIA ISV que admiten hasta cuatro resoluciones de escritorio 4K. Las instancias P3 con GPU NVIDIA V100 combinadas con las RTX vWS entregan una estación de trabajo de alto rendimiento en la nube con hasta 32 GiB de memoria de GPU, rápido trazado de rayos y renderizado con tecnología de IA.
Las nuevas AMI están disponibles en AWS Marketplace y son compatibles con Windows Server 2016 y Windows Server 2019.
Instancias P3dn.24xlarge de Amazon EC2
Nuevo tamaño de instancia más rápido, potente y grande que se ha optimizado para el machine learning distribuido y la informática de alto rendimiento
Las instancias P3dn.24xlarge de Amazon EC2 son el tamaño de instancia P3 más rápido, potente y grande disponible. Cuentan con una capacidad de rendimiento de redes de hasta 100 Gbps, 8 GPU NVIDIA® V100 Tensor Core con 32 GiB de memoria cada una, 96 CPU virtuales escalables Intel® Xeon® Scalable (Skylake) y 1,8 TB de almacenamiento SSD local basado en NVMe. La mayor agilidad de redes, los procesadores nuevos, la duplicación de la memoria para GPU y las vCPU adicionales permiten a los desarrolladores disminuir el tiempo necesario para entrenar sus modelos de ML o ejecutar más simulaciones de informática de alto rendimiento mediante el escalado horizontal de sus trabajos en varias instancias (p. ej., 16, 32 o 64 instancias). Los modelos de aprendizaje automático requieren una gran cantidad de datos para el entrenamiento y, además de aumentar el rendimiento de la transmisión de datos entre instancias, el rendimiento de red adicional de las instancias P3dn.24xlarge también se puede utilizar para acelerar el acceso a grandes cantidades de datos de entrenamiento mediante la conexión a Simple Storage Service (Amazon S3) o a soluciones de sistemas de archivos compartidos, como Amazon EFS.
Eliminación de los cuellos de botella y reducción del tiempo de entrenamiento de machine learning
Con un rendimiento de redes de 100 Gbps, los desarrolladores pueden utilizar eficientemente un gran número de instancias P3dn.24xlarge para el entrenamiento distribuido y reducir de manera significativa el tiempo de entrenamiento de sus modelos. Las 96 vCPU de los procesadores Intel Skylake personalizados para AWS con instrucciones AVX-512 que funcionan a 2,5 GHz ayudan a optimizar el preprocesamiento de datos. Además, las instancias P3dn.24xlarge usan el sistema AWS Nitro, una combinación de hardware dedicado e hipervisor ligero que proporciona prácticamente todos los recursos de computación y de memoria del hardware del host a sus instancias. Las instancias P3dn.24xlarge también admiten Elastic Fabric Adapter que permite que las aplicaciones de ML que utilizan NVIDIA Collective Communications Library (NCCL) escalen a miles de GPU.
Costo total de propiedad más bajo mediante la optimización del uso de GPU
La red mejorada con la última versión de Elastic Network Adapter con hasta 100 Gbps de ancho de banda de red agregado se puede utilizar no solo para compartir datos en varias instancias P3dn.24xlarge, sino también para el acceso a datos de alto rendimiento a través de Amazon S3 o una solución de sistemas de archivos compartidos como Amazon EFS. El acceso a datos de alto rendimiento es esencial para optimizar la utilización de las GPU y obtener el máximo rendimiento de las instancias de computación.
Compatibilidad con modelos más grandes y complejos
Las instancias P3dn.24xlarge ofrecen las GPU NVIDIA V100 Tensor Core con 32 GiB de memoria que proporcionan la flexibilidad necesaria para entrenar modelos de machine learning más avanzados y grandes, así como para procesar lotes de datos más grandes, como imágenes 4K para sistemas de clasificación de imágenes y detección de objetos.
Detalles de producto de la instancia P3 de Amazon EC2
Tamaño de instancia | GPU – Tesla V100 | GPU de pares | Memoria de GPU (GB) | vCPU | Memoria (GB) | Ancho de banda de la red | Ancho de banda de EBS | Precio de la instancia bajo demanda por hora* | Por hora real en una instancia reservada por 1 año* | Por hora real en una instancia reservada por 3 años.* |
---|---|---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | N/D | 16 | 8 | 61 | Hasta 10 Gbps | 1,5 Gbps | 3,06 USD | 1,99 USD | 1,05 USD |
p3.8xlarge | 4 |
NVLink | 64 | 32 | 244 | 10 Gbps | 7 Gbps | 12,24 USD | 7,96 USD | 4,19 USD |
p3.16xlarge | 8 | NVLink | 128 | 64 | 488 | 25 Gbps | 14 Gbps | 24,48 USD | 15,91 USD | 8,39 USD |
p3dn.24xlarge | 8 | NVLink | 256 | 96 | 768 | 100 Gbps | 19 Gbps | 31,218 USD | 18,30 USD | 9,64 USD |
* Los precios mostrados corresponden a Linux/Unix en la región de AWS EE.UU. Este (Norte de Virginia) y se redondean al céntimo más bajo. Para ver la información sobre precios completa, consulte la página de precios de Amazon EC2.
Los clientes pueden adquirir instancias P3 como instancias bajo demanda, instancias reservadas, instancias de spot o hosts dedicados.
Facturación por segundo
Una de las numerosas ventajas de la informática en la nube es la naturaleza elástica del aprovisionamiento o el desaprovisionamiento de recursos, según los requiera. Con la facturación del uso por segundo, los clientes pueden mejorar su elasticidad, ahorrar dinero y optimizar la asignación de los recursos para alcanzar sus objetivos de aprendizaje automático.
Precios de las instancias reservadas
Las instancias reservadas ofrecen un descuento importante (hasta del 75 %) en comparación con los precios de las instancias bajo demanda. Además, cuando se asignan instancias reservadas a una zona de disponibilidad específica, se proporciona una reserva de capacidad, lo que le aporta más tranquilidad en relación con la posibilidad de lanzar instancias cuando las necesite.
Precios de las instancias de spot
Con las instancias de spot, paga el precio de spot vigente durante el periodo en que sus instancias se ejecuten. Amazon EC2 define los precios de las instancias de spot y estos se ajustan gradualmente en función de las tendencias a largo plazo de la oferta y la demanda de capacidad de este tipo de instancia. Las instancias de spot están disponibles con un descuento de hasta el 90 % en comparación con los precios de las instancias bajo demanda.
La más amplia disponibilidad en el mundo
Las instancias P3.2xlarge, P3.8xlarge y P3.16xlarge de Amazon EC2 están disponibles en 14 regiones de AWS para que los clientes tengan la flexibilidad de entrenar e implementar sus modelos de aprendizaje automático donde los datos estén almacenados. Las regiones de AWS disponibles para P3 son EE. UU. Este (Norte de Virginia), EE. UU. Este (Ohio), EE. UU. Oeste (Oregón), Canadá (Central), Europa (Irlanda), Europa (Frankfurt), Europa (Londres), Asia Pacífico (Tokio), Asia Pacífico (Seúl), Asia Pacífico (Sídney), Asia Pacífico (Singapur), China (Pekín), China (Ningxia) y GovCloud (EE. UU.).
Las instancias P3dn.24xlarge están disponibles en las regiones de AWS Asia Pacífico (Tokio), Europa (Irlanda), EE. UU. Este (Norte de Virginia), EE. UU. Oeste (Oregón), GovCloud (EE. UU. Oeste) y GovCloud (EE. UU. Este).
Comience a utilizar las instancias P3 de Amazon EC2 para el aprendizaje automático
Para poder comenzar en minutos, obtenga más información sobre Amazon SageMaker o use la AMI de aprendizaje profundo de AWS preinstalada con marcos de aprendizaje profundo conocidos, como Caffe2 y MXNet. Opcionalmente, también puede utilizar la AMI de NVIDIA con un controlador de GPU y un conjunto de herramientas CUDA instalados con anterioridad.
Blogs, artículos y seminarios web
Fecha de emisión: 19 de diciembre de 2018
Nivel 200
La visión artificial tiene que ver con cómo las computadoras pueden entrenarse para obtener un alto nivel de comprensión de videos o imágenes digitales. La historia de la visión artificial se remonta a los años sesenta, pero los avances más recientes en la procesión de tecnología han dado lugar a aplicaciones como la referente a la navegación de vehículos autónomos. Esta tecnología repasará los distintos pasos que se necesitan para construir, entrenar e implementar un modelo de aprendizaje automático para la visión artificial. Compararemos y contrastaremos el entrenamiento de modelos para visión artificial usando diferentes instancias de Amazon EC2, y resaltaremos la gran cantidad de tiempo que puede ahorrarse con las instancias P3 de Amazon EC2.
Fecha de emisión: 31 de julio de 2018
Nivel 200
Las organizaciones intentan abordar preguntas potencialmente complejas en los campos de científica avanzada, energía, tecnología de punta y medicina. El aprendizaje automático hace que sea posible explorar rápidamente una multitud de escenarios y generar las mejores respuestas, que van desde reconocimiento de imagen, video y discurso a sistemas autónomos de vehículos y predicciones del clima. Para los científicos de datos, los investigadores y los desarrolladores que necesiten acelerar el desarrollo de las aplicaciones de aprendizaje automático, las instancias P3 de Amazon EC2 son las instancias informáticas de GPU más potentes, rentables y versátiles que se encuentran disponibles en la nube.
Acerca de Amazon SageMaker
Acerca del aprendizaje profundo en AWS
Acerca de la informática de alto rendimiento (HPC)