Elija los servicios, marcos y modelos fundacionales de IA y ML adecuados para respaldar su trabajo
Introducción
En su forma más básica, el machine learning (ML) está diseñado para proporcionar herramientas y servicios digitales para aprender de los datos, identificar patrones, hacer predicciones y luego actuar en función de esas predicciones. Casi todos los sistemas de inteligencia artificial (IA) actuales se crean con ML. El ML utiliza grandes cantidades de datos para crear y validar la lógica de decisiones. Esta lógica de decisión constituye la base del «modelo» de IA.
Un subconjunto de machine learning en rápido crecimiento es la IA generativa, que se basa en modelos de gran tamaño que se entrenan previamente con un amplio conjunto de datos, comúnmente denominados modelos fundacionales (FM). Los servicios de AWS basados en IA generativa incluyen:
- Amazon Bedrock (que le proporciona una forma de crear y escalar aplicaciones basadas en IA generativa mediante FM)
- Amazon CodeWhisperer (un complemento de codificación de IA que genera sugerencias de código en tiempo real en función de sus comentarios en lenguaje natural y de cualquier código anterior de su entorno de desarrollo integrado)
Esta guía para la toma de decisiones lo ayudará a hacer las preguntas correctas, evaluar sus criterios y problemas empresariales y determinar qué servicios se adaptan mejor a sus necesidades.
En menos de dos minutos, el Dr. Werner Vogels, CTO de Amazon, explica cómo funciona la IA generativa y cómo se puede utilizar. Este video es parte de una discusión más larga entre el Dr. Vogels y Swami Sivasubramanian, vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, hablan sobre el amplio panorama de la IA generativa, por qué no es exageración y cómo AWS está democratizando el acceso a grandes lenguajes y modelos básicos.
Hora de leer
25 minutos
Uso
Ayude a determinar qué servicios de ML de AWS se adaptan mejor a sus necesidades.
Nivel
Principiante
Última actualización
26 de julio de 2023
Servicios cubiertos
Más guías de decisión sobre
Entender
Además, AWS ofrece el siguiente hardware acelerado y especializado para la formación e inferencia de ML de alto rendimiento.
- Las instancias P4d de Amazon EC2 están equipadas con las GPU NVIDIA A100 Tensor Core, que son ideales tanto para tareas de entrenamiento como de inferencia en el machine learning. AWS Trainium es el acelerador de ML de segunda generación que AWS creó especialmente para el entrenamiento de DL de más de 100 000 000 000 de modelos de parámetros.
- Las instancias Inf2 de Amazon EC2 basadas en Inferentia2 de AWS están diseñadas para ofrecer un alto rendimiento al menor costo en Amazon EC2 para las aplicaciones de inferencia de aprendizaje profundo e IA generativa.
Considere
Al resolver un problema empresarial con los servicios de ML de AWS, la consideración de varios criterios clave puede ayudar a garantizar el éxito. La siguiente sección describe algunos de los criterios clave que se deben tener en cuenta al elegir un servicio de ML.
-
Definición del problema
-
Algoritmo de ML
-
Seguridad
-
Latencia
-
Precisión
-
AWS y la IA responsable
-
El primer paso en el ciclo de vida del ML es plantear el problema empresarial. Comprender el problema que intenta resolver es fundamental para elegir el servicio de ML de AWS adecuado, ya que los distintos servicios están diseñados para abordar problemas diferentes. También es importante determinar si el ML es la mejor opción para su problema empresarial.
Una vez que haya determinado que el ML es la mejor opción, puede empezar por elegir entre una gama de servicios de IA de AWS diseñados específicamente (en áreas como el discurso, la visión y los documentos).
Amazon SageMaker proporciona una infraestructura totalmente gestionada si necesita crear y entrenar sus propios modelos. AWS ofrece una variedad de marcos de ML avanzados y opciones de infraestructura para los casos en los que necesite modelos de ML altamente personalizados y especializados. AWS también ofrece un amplio conjunto de modelos básicos populares para crear nuevas aplicaciones con IA generativa.
-
La elección del algoritmo de ML para el problema empresarial que intenta resolver depende del tipo de datos con los que esté trabajando, así como de los resultados deseados. La siguiente información describe cómo cada una de las principales categorías de servicios de IA y ML de AWS le permite trabajar con sus algoritmos:
- Servicios de IA especializados: estos servicios ofrecen una capacidad limitada para personalizar el algoritmo ML, ya que son modelos previamente entrenados optimizados para tareas específicas. Por lo general, puede personalizar los datos de entrada y algunos parámetros, pero no tiene acceso a los modelos de ML subyacentes ni a la capacidad de crear sus propios modelos.
- Amazon SageMaker: este servicio ofrece la máxima flexibilidad y control sobre el algoritmo de ML. Puede usar SageMaker para crear modelos personalizados con sus propios algoritmos y marcos, o usar modelos y algoritmos diseñados previamente que proporciona AWS. Esto permite un alto grado de personalización y control sobre el proceso de ML.
- Infraestructura y marcos de ML de nivel inferior: estos servicios ofrecen la mayor flexibilidad y control sobre el algoritmo de ML. Puede utilizar estos servicios para crear modelos de ML altamente personalizados utilizando sus propios algoritmos y marcos. Sin embargo, el uso de estos servicios requiere una gran experiencia en ML y es posible que no sea factible para todos los casos de uso.
-
Si necesita un punto de conexión privado en su VPC, las opciones variarán en función de la capa de servicios de ML de AWS que utilice. Entre ellos se incluyen:
- Servicios de IA especializados: la mayoría de los servicios de IA especializados actualmente no admiten puntos de conexión privados en las VPC. Sin embargo, se puede acceder a las etiquetas personalizadas de Amazon Rekognition y Amazon Comprehend mediante puntos de conexión de VPC.
- Servicios principales de IA: Amazon Translate, Amazon Transcribe y Amazon Comprehend son compatibles con puntos de conexión de VPC.
- Amazon SageMaker: SageMaker ofrece soporte integrado para los puntos de conexión de VPC, lo que le permite implementar sus modelos entrenados como un punto de conexión al que solo se puede acceder desde su VPC.
- Infraestructura y marcos de ML de nivel inferior: puede implementar sus modelos en instancias de Amazon EC2 o en contenedores dentro de su VPC, lo que proporciona un control total sobre la configuración de red.
-
Los servicios de inteligencia artificial de nivel superior, como Amazon Rekognition y Amazon Transcribe, están diseñados para gestionar una amplia variedad de casos de uso y ofrecen un alto rendimiento en términos de velocidad. Sin embargo, es posible que no cumplan ciertos requisitos de latencia.
Si utiliza infraestructuras y marcos de aprendizaje automático de nivel inferior, le recomendamos que utilice Amazon SageMaker. Esta opción suele ser más rápida que la creación de modelos personalizados debido a su servicio totalmente gestionado y a sus opciones de despliegue optimizados. Si bien un modelo personalizado altamente optimizado puede superar a SageMaker, su creación requerirá conocimientos y recursos importantes.
-
La precisión de los servicios de ML de AWS varía según el caso de uso específico y el nivel de personalización requerido. Los servicios de IA de nivel superior, como Amazon Rekognition, se basan en modelos previamente entrenados que se han optimizado para tareas específicas y ofrecen una alta precisión en muchos casos de uso.
En algunos casos, puede optar por utilizar Amazon SageMaker, que proporciona una plataforma más flexible y personalizable para crear y entrenar modelos de ML personalizados. Al crear sus propios modelos, es posible que pueda lograr una precisión aún mayor que la que es posible con los modelos previamente entrenados.
También puedes optar por utilizar infraestructuras y marcos de ML, como TensorFlow y Apache MXNet, para crear modelos altamente personalizados que ofrezcan la mayor precisión posible para su caso de uso específico.
-
AWS crea modelos fundacionales (FM) teniendo en cuenta la IA responsable en cada etapa de su proceso de desarrollo. A lo largo del diseño, el desarrollo, el despliegue y las operaciones, tenemos en cuenta una variedad de factores, entre los que se incluyen:
- Precisión (qué tan cerca coincide un resumen con el documento subyacente; si una biografía es correcta desde el punto de vista fáctico)
- Equidad (si los productos tratan a los grupos demográficos de manera similar)
- Consideraciones sobre propiedad intelectual y derechos de autor
- Uso apropiado (filtrar las solicitudes de los usuarios de asesoramiento legal, diagnósticos médicos o actividades ilegales)
- Toxicidad (discurso de odio, blasfemias e insultos)
- Privacidad (protección de la información personal y las indicaciones de los clientes)
AWS crea soluciones para abordar estos problemas en los procesos utilizados para adquirir datos de entrenamiento, en los propios FM y en la tecnología utilizada para procesar previamente las solicitudes de los usuarios y los resultados posteriores al procesamiento.
Escoja
Ahora que conoce los criterios con los que evaluará las opciones del servicio de ML, estará listo para elegir qué servicio de ML de AWS es el adecuado para las necesidades de su organización.
En la siguiente tabla se destacan los servicios de ML que están optimizados para cada circunstancia. Úsela para ayudar a determinar el servicio de ML de AWS que mejor se adapte a su caso de uso.
Amazon Comprehend le permite realizar tareas de procesamiento del lenguaje natural, como el análisis de sentimientos, el reconocimiento de entidades, el modelado de temas y la detección del lenguaje, en sus datos de texto.
Amazon Lex le ayuda a crear chatbots y asistentes de voz que pueden interactuar con los usuarios en una interfaz de lenguaje natural. Proporciona funciones preintegradas de administración de diálogos, comprensión del idioma y reconocimiento de voz.
Use Amazon Polly para convertir texto en voz realista, lo que facilita la creación de aplicaciones y servicios habilitados para voz.
Amazon Rekognition está diseñado para permitirle añadir análisis de imágenes y vídeos a sus aplicaciones. Tan solo debe ofrecer una imagen o un video a la API de Amazon Rekognition y el servicio podrá identificar objetos, personas, texto, escenas y actividades. También puede detectar contenido inadecuado.
Amazon Textract le ayuda a extraer texto y datos de documentos, formularios y tablas escaneados, lo que facilita el almacenamiento, el análisis y la administración de dichos datos.
Amazon Transcribe permite a los clientes transcribir automáticamente grabaciones de audio y vídeo en texto. Esto puede ahorrar tiempo y esfuerzo en comparación con la transcripción manual.
Utilice este servicio para traducir texto de un idioma a otro en tiempo real. Esto es especialmente útil si su empresa opera en diversos países o necesita comunicarse con hablantes no nativos.
Amazon Bedrock es un servicio totalmente administrado que permite que los modelos fundacionales de las principales startups de IA y Amazon estén disponibles a través de una API, de modo que pueda elegir entre una amplia gama de modelos fundacionales para encontrar el que mejor se adapte a su caso de uso.
Amazon CodeWhisperer es un complemento de programación de IA en tiempo real que ayuda a crear código para tareas rutinarias o laboriosas e indiferenciadas, a trabajar con API o SDK desconocidos, a hacer un uso correcto y eficaz de las API de AWS y a otros escenarios de codificación habituales, como la lectura y escritura de archivos, el procesamiento de imágenes y la escritura de pruebas unitarias.
El Piloto automático de Amazon SageMaker reduce el trabajo pesado que supone crear modelos de ML. Simplemente proporcione un conjunto de datos tabulares y seleccione la columna de destino para predecir y el piloto automático de Amazon SageMaker analizará de forma automática las diferentes soluciones para encontrar el mejor modelo. Posteriormente podrá implementar directamente el modelo en la etapa de producción con un solo clic o bien iterar en las soluciones recomendadas a fin de mejorar aún más la calidad del modelo.
Amazon SageMaker Canvas le permite utilizar machine learning para generar predicciones sin necesidad de escribir ningún código.
Amazon SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar datos tabulares y de imágenes para ML. Con SageMaker Data Wrangler, es posible simplificar el proceso de preparación de datos e ingeniería de características, así como completar cada paso del flujo de trabajo de preparación de datos (incluyendo la selección, limpieza, exploración, visualización y procesamiento de datos a escala) en una única interfaz visual.
SageMaker Ground Truth es un servicio gestionado para etiquetar datos con el fin de entrenar y mejorar los modelos de machine learning. Proporciona una forma muy precisa y eficiente de etiquetar grandes conjuntos de datos mediante una combinación de anotadores humanos y algoritmos de machine learning. SageMaker Ground Truth admite una amplia gama de tipos de datos, incluyendo texto, imágenes, vídeo y audio y se integra a la perfección con otros servicios de SageMaker para flujos de trabajo de machine learning integrales.
SageMaker JumpStart proporciona modelos de código abierto previamente entrenados para una amplia gama de tipos de problemas a fin de ayudarle a empezar con machine learning. Puede capacitarse y ajustar estos modelos de forma incremental antes del despliegue. JumpStart también proporciona plantillas de soluciones que configuran la infraestructura para casos de uso comunes y cuadernos de ejemplo ejecutables para machine learning con SageMaker.
Con Canalizaciones de Amazon SageMaker, puede crear flujos de trabajo de ML con un SDK de Python y, a continuación, visualizar y administrar el flujo de trabajo con Amazon SageMaker Studio. Canalizaciones de Amazon SageMaker le permite almacenar y reutilizar los pasos del flujo de trabajo que origine en SageMaker Pipelines.
Un entorno de desarrollo (IDE) totalmente integrado que permite a los desarrolladores crear, capacitar e implementar modelos de machine learning a escala. Proporciona una única interfaz basada en la web para gestionar todo el ciclo de vida de machine learning, desde la preparación de datos y el entrenamiento de modelos hasta el despliegue y la supervisión. SageMaker Studio también es compatible con herramientas populares, como los cuadernos Jupyter, Git y TensorFlow, y ofrece un conjunto de algoritmos prediseñados para casos de uso comunes.
Amazon SageMaker Studio Lab es un IDE basado en la nube para aprender y experimentar con machine learning mediante cuadernos Jupyter prediseñados. Incluye una gama de cuadernos prediseñados que cubren temas como el reconocimiento de imágenes, el procesamiento del lenguaje natural y la detección de anomalías.
Apache MXNet es un marco de aprendizaje profundo de código abierto que admite diversos lenguajes de programación, incluyendo Python, Scala y R. Es conocido por su escalabilidad y velocidad y ofrece una gama de API de alto nivel para crear y entrenar redes neuronales, así como API de bajo nivel para usuarios avanzados.
Hugging Face en Amazon SageMaker
Hugging Face en Amazon SageMaker es una biblioteca de código abierto para el procesamiento del lenguaje natural (NLP) que proporciona una amplia gama de modelos y herramientas previamente entrenados para trabajar con datos de texto. Es conocido por su facilidad de uso y alto rendimiento y se usa ampliamente para tareas como la clasificación de textos, el análisis de sentimientos y la traducción de idiomas.
PyTorch en AWS es un marco de machine learning de código abierto que ofrece gráficos de cálculo dinámicos y diferenciación automática para crear y entrenar redes neuronales. PyTorch es conocido por su facilidad de uso y flexibilidad, y cuenta con una amplia y activa comunidad de desarrolladores que contribuyen a su desarrollo.
TensorFlow es un marco de machine learning de código abierto desarrollado por Google que se usa ampliamente para crear y entrenar redes neuronales. Es conocido por su escalabilidad, velocidad y flexibilidad y es compatible con una variedad de lenguajes de programación, incluidos Python, C++ y Java. TensorFlow ofrece una amplia gama de modelos y herramientas prediseñados para el procesamiento de imágenes y texto, así como API de bajo nivel para usuarios avanzados que requieren un mayor control sobre sus modelos.
AWS Inferentia y AWS Inferentia2
El acelerador de AWS Inferentia de primera generación alimenta las instancias Inf1 de Amazon Elastic Compute Cloud (Amazon EC2), que ofrecen un rendimiento hasta 2.3 veces mayor y un costo por inferencia hasta un 70% menor que las instancias comparables de Amazon EC2. El acelerador AWS Inferentia2 mejora la primera generación de AWS Inferentia. Inferentia2 ofrece un rendimiento hasta 4 veces mayor y una latencia hasta 10 veces menor en comparación con Inferentia.
AWS Trainium es el acelerador de machine learning (ML) de segunda generación que AWS creó especialmente para el entrenamiento de aprendizaje profundo de más de 100 000 000 000 de modelos de parámetros. Cada instancia Trn1 de Amazon Elastic Compute Cloud (EC2) implementa hasta 16 aceleradores de AWS Trainium para usarlos en el entrenamiento de aprendizaje profundo (DL) en la nube.
Uso
Ahora debe tener una idea clara de los criterios que debe aplicar para elegir un servicio de ML de AWS. Ahora puede seleccionar qué servicios de IA o ML de AWS están optimizados para las necesidades de su empresa.
Para explorar cómo usar y obtener más información sobre los servicios que eligió, ofrecemos tres conjuntos de rutas para explorar cómo funciona cada servicio. El primer conjunto de rutas proporciona documentación detallada, tutoriales prácticos y recursos para empezar a utilizar Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition y Amazon Transcribe.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Comience a usar Amazon Comprehend
Utilice la consola Amazon Comprehend para crear y ejecutar un trabajo de detección de entidades asincrónico.
Comience con el tutorial»Analice la información que se encuentra en los textos por medio de Amazon Comprehend
Aprenda a utilizar Amazon Comprehend para analizar y obtener información a partir de textos.
Precios de Amazon Comprehend
Consulte la información sobre los precios y ejemplos de Amazon Comprehend. -
Amazon Textract
-
Introducción a Amazon Textract
Descubra cómo se puede usar Amazon Textract con texto formateado para detectar palabras y líneas de palabras que se encuentran cerca unas de otras, así como para analizar un documento en busca de elementos como texto relacionado, tablas, pares clave-valor y elementos de selección.
Extraiga texto y datos estructurados con Amazon Textract
Aprenda a utilizar Amazon Textract para extraer texto y datos estructurados a partir de documentos.
AWS Power Hour: Machine learning
Conozca Amazon Textract en este episodio, dedique tiempo a la consola de administración de AWS y revise ejemplos de código que le ayudarán a entender cómo aprovechar al máximo las API de servicio.
-
Amazon Translate
-
Cómo empezar a usar Amazon Translate usando la consola
La manera más sencilla de empezar a usar Amazon Translate es usar la consola para traducir algún texto. Aprenda a traducir hasta 10,000 caracteres usando la consola.
Traducir texto de un idioma a otro en la nube
En el escenario propuesto en este tutorial, como parte de una compañía de fabricación de maletas, debe comprender lo que dicen los clientes sobre sus productos en las valoraciones realizadas en el idioma del mercado local - francés.
Precios de Amazon Translate
Conozca los precios de Amazon Translate, incluyendo la capa gratuita - que proporciona 2 millones de caracteres al mes durante 12 meses.
Explore la guía»
Acelere los flujos de trabajo multilingües con una solución de traducción personalizable
Descubra cómo crear una solución de traducción unificada con características de personalización mediante Amazon Translate y otros servicios de AWS.
-
Amazon Lex
-
Guía para desarrolladores de Amazon Lex V2
Consulte información sobre cómo empezar, cómo funciona e información sobre los precios de Amazon Lex V2.
Explore la guía»Introduction to Amazon Lex
Le presentamos el servicio conversacional Amazon Lex y le guiamos a través de ejemplos que le muestran cómo crear un bot e implementarlo en diferentes servicios de chat.Tome el curso » (es necesario iniciar sesión)
Exploración de la IA generativa en experiencias conversacionales
Explore el uso de la IA generativa en las experiencias de conversación.
-
Amazon Polly
-
¿Qué es Amazon Polly?
Obtenga una visión general completa del servicio en la nube que convierte el texto en voz realista y que se puede utilizar para desarrollar aplicaciones que aumenten la participación y la accesibilidad de sus clientes.Resalta el texto a medida que se está pronunciando con Amazon Polly
Le presentamos métodos para resaltar el texto mientras se pronuncia para agregar capacidades visuales al audio en libros, sitios web, blogs y otras experiencias digitales.Crea audio para contenido en múltiples idiomas con el mismo personaje de voz de TTS en Amazon Polly
Explicamos la conversión de texto a voz neuronal (NTTS) y analizamos cómo puede funcionar para usted una amplia cartera de voces disponibles, que proporciona una gama de hablantes distintos en los idiomas compatibles.
-
Amazon Rekognition
-
¿Qué es Amazon Rekognition?
Descubra cómo puede utilizar este servicio para añadir análisis de imagen y vídeo a sus aplicaciones.Rekognition práctico: análisis automatizado de imágenes y videos
Aprenda cómo funciona el reconocimiento facial con la transmisión de vídeo, junto con ejemplos de código y puntos clave a un ritmo autoguiado.
Preguntas frecuentes sobre Amazon Rekognition
Conozca los conceptos básicos de Amazon Rekognition y cómo puede ayudarlo a mejorar su aprendizaje profundo y analizar visualmente sus aplicaciones. -
Amazon Transcribe
-
¿Qué es Amazon Transcribe?
Explore el servicio de reconocimiento de voz automático de AWS mediante ML para convertir audio en texto. Aprenda a utilizar este servicio como una transcripción independiente o a añadir la capacidad de conversión de voz a texto en cualquier aplicación.Precios de Amazon Transcribe
Le presentamos la transcripción de pago por uso de AWS, que incluye opciones de modelos de idioma personalizados y la capa gratuita de Amazon Transcribe.Origine una transcripción de audio con Amazon Transcribe
Aprenda a usar Amazon Transcribe para crear una transcripción de texto de archivos de audio grabados utilizando un caso de uso real para realizar pruebas en función de sus necesidades.
Origine una aplicación de streaming Amazon Transcribe
Aprenda a crear una aplicación para grabar, transcribir y traducir audio en vivo en tiempo real, con los resultados enviados directamente por correo electrónico.
El segundo conjunto de rutas de servicio de AWS con IA y ML proporciona documentación detallada, tutoriales prácticos y recursos para empezar a utilizar los servicios de la familia Amazon SageMaker.
-
SageMaker
-
Piloto automático SageMaker
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
Canalizaciones de SageMaker
-
SageMaker Studio
-
SageMaker
-
Cómo funciona Amazon SageMaker
Explore la descripción general de machine learning y el funcionamiento de SageMaker.Introducción a Amazon SageMaker
Aprenda a unirse a un dominio de Amazon SageMaker, lo que le permitirá ingresar a Amazon SageMaker Studio y RStudio en SageMaker.
Explore la guía»Utilice Apache Spark con Amazon SageMaker
Aprenda a usar Apache Spark para preprocesar datos y SageMaker para el entrenamiento y alojamiento de modelos.
Explore la guía»Utilice contenedores Docker para crear modelos
Descubra cómo Amazon SageMaker hace un uso extensivo de los contenedores de Docker para tareas de compilación y ejecución. Aprenda a implementar las imágenes de Docker prediseñadas para sus algoritmos integrados y los marcos de aprendizaje profundo compatibles que se utilizan para el entrenamiento y la inferencia.
Explore la guía »
Frameworks y lenguajes de machine learning
Aprenda a comenzar a usar SageMaker con Amazon SageMaker Python SDK. -
Piloto automático SageMaker
-
Origine un experimento de piloto automático de Amazon SageMaker para datos tabulares
Aprenda a crear un experimento de piloto automático de Amazon SageMaker para explorar, preprocesar y capacitar a diversos modelos candidatos en un conjunto de datos tabular.Creación automática de modelos de machine learning
Aprenda a utilizar el piloto automático de Amazon SageMaker para crear, entrenar y ajustar automáticamente un modelo de machine learning (ML) y desplegarlo para realizar predicciones.
Explore el modelado con el piloto automático de Amazon SageMaker con estos ejemplos de cuadernos
Explore cuadernos de ejemplo para el marketing directo, la predicción de la rotación de clientes y cómo incorporar su propio código de procesamiento de datos al piloto automático de Amazon SageMaker. -
SageMaker Canvas
-
Comience a usar Amazon SageMaker Canvas
Aprenda a empezar a usar SageMaker Canvas.Generación de predicciones de machine learning sin necesidad de escribir código
Este tutorial explica cómo usar Amazon SageMaker Canvas para crear modelos de machine learning (ML) y generar predicciones precisas sin escribir una sola línea de código.
Comience con el tutorial »Profundice en SageMaker Canvas
Explore un análisis en profundidad de SageMaker Canvas y sus capacidades visuales de aprendizaje automático sin código.Utilice Amazon SageMaker Canvas para crear su primer modelo de aprendizaje automático
Aprenda a usar Amazon SageMaker Canvas para crear un modelo de aprendizaje automático para evaluar la retención de clientes, con base en una campaña de correo electrónico para nuevos productos y servicios. -
SageMaker Data Wrangler
-
Introducción a Amazon SageMaker Data Wrangler
Descubra cómo configurar SageMaker Data Wrangler y, a continuación, proporcione un tutorial con un conjunto de datos de ejemplo existente.
Explore la guía»Prepare datos de entrenamiento para machine learning con un código mínimo
Aprenda a preparar datos para ML con Amazon SageMaker Data Wrangler.
Comience con el tutorial »Taller detallado de SageMaker Data Wrangler
Aprenda a aplicar los tipos de análisis adecuados en su conjunto de datos para detectar anomalías y problemas, a utilizar los resultados o conocimientos derivados para formular acciones correctivas durante las transformaciones en su conjunto de datos y a probar la elección y la secuencia de transformaciones correctas con las opciones de modelado rápido que ofrece SageMaker Data Wrangler. -
SageMaker Ground Truth/Ground Truth Plus
-
Introducción a Amazon Groud Truth
Descubra cómo usar la consola para crear un trabajo de etiquetado, asignar un personal público o privado y enviar el trabajo de etiquetado a su personal. Aprenda a monitorear el progreso de un trabajo de etiquetado.
Etiquetado de los datos de entrenamiento para machine learning
Aprenda en este tutorial a configurar un trabajo de etiquetado en Amazon SageMaker Ground Truth a fin de anotar los datos de entrenamiento para el modelo de aprendizaje automático (ML).
Cómo empezar a usar Amazon Ground Truth Plus
Descubra cómo completar los pasos necesarios para iniciar un proyecto de Amazon SageMaker Ground Truth Plus, revisar las etiquetas y cumplir los requisitos previos de SageMaker Ground Truth Plus.Introducción a Amazon Ground Truth
Vea cómo empezar a etiquetar sus datos en cuestión de minutos a través de la consola SageMaker Ground Truth.
Amazon SageMaker Ground Truth Plus: origine conjuntos de datos de entrenamiento sin código ni recursos internos
Obtenga más información sobre Ground Truth Plus, un servicio llave en mano que utiliza una fuerza laboral experta para ofrecer conjuntos de datos de entrenamiento de alta calidad de forma rápida y reduce los costos hasta en un 40 por ciento.
-
SageMaker JumpStart
-
Comience con machine learning con SageMaker JumpStart
Explore las plantillas de soluciones JumpStart de SageMaker que configuran la infraestructura para casos de uso comunes y los cuadernos de ejemplo ejecutables para machine learning con SageMaker.
Explore la guía »Introducción rápida a su proyecto de machine learning con Amazon SageMaker JumpStart
Aprenda a acelerar los proyectos de aprendizaje automático (ML) mediante modelos previamente entrenados y soluciones prediseñadas que ofrece Amazon SageMaker JumpStart. Puede implementar el modelo seleccionado a través de los cuadernos de Amazon SageMaker Studio.
Ponga manos a la obra con Amazon SageMaker JumpStart con este taller del día de inmersión
Descubra cómo las capacidades de aprendizaje automático de bajo código que se encuentran en Amazon SageMaker Data Wrangler, Autopilot y Jumpstart facilitan la experimentación más rápida y llevan modelos de alta precisión a la producción.
-
Canalizaciones de SageMaker
-
Introducción a Canalizaciones de Amazon SageMaker
Aprenda a crear flujos de trabajo integrales que gestionen e implementen trabajos de SageMaker. SageMaker Pipelines incluye la integración con el SDK de Python de SageMaker, por lo que puede crear cada paso de su canalización mediante una interfaz basada en Python.
Explore la guía »Automatice los flujos de trabajo de machine learning
Aprenda a crear y automatizar flujos de trabajo de machine learning (ML) de extremo a extremo con Canalizaciones de Amazon SageMaker, Registro de modelos de Amazon SageMaker y Amazon SageMaker Clarify.
Comience con el tutorial »Cómo crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker
Obtenga información sobre Canalizaciones de Amazon SageMaker, el primer servicio de CI/CD de aprendizaje automático del mundo diseñado para que todos los desarrolladores y científicos de datos puedan acceder a él. SageMaker Pipelines lleva las canalizaciones de CI/CD al aprendizaje automático, lo que reduce el tiempo de codificación necesario.
Vea el video » -
SageMaker Studio
-
Creación y entrenamiento de un modelo de machine learning de forma local
Aprenda a originar y entrenar un modelo de aprendizaje automático (ML) localmente dentro del cuaderno de Amazon SageMaker Studio.Taller de integración de SageMaker Studio con EMR
Aprenda a utilizar el procesamiento distribuido a escala para preparar datos y, posteriormente, entrenar modelos de machine learning.
El tercer conjunto de rutas de servicio de AWS para inteligencia artificial y ML brinda documentación detallada, tutoriales prácticos y recursos para comenzar a utilizar Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia y Amazon Titan.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Descripción general de Amazon Bedrock
Comprenda cómo Amazon Bedrock hace que los modelos básicos de las principales startups de IA y Amazon estén disponibles a través de una API, de modo que pueda elegir entre una amplia gama de máquinas virtuales y encontrar el modelo que mejor se adapte a su caso de uso.
Anuncio de nuevas herramientas para crear con IA generativa en AWS
Conozca los antecedentes sobre el desarrollo de Amazon Bedrock, cómo se ajusta al enfoque más amplio de AWS sobre la IA y el aprendizaje automático - y proporcione una descripción general de los posibles usos de los servicios de IA generativa de AWS.
Desmitificación de la IA generativa
En este vídeo, la Dra. Werner Vogels, Director de tecnología de Amazon y Swami Sivasubramanian, Vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, conversan sobre el amplio panorama de la IA generativa, por qué no es exagerada y cómo AWS está democratizando el acceso a grandes lenguajes y modelos básicos.
-
Amazon CodeWhisperer
-
¿Qué es Amazon CodeWhisperer?
Descubra cómo CodeWhisperer está diseñado para ayudar a crear código para tareas rutinarias o indiferenciadas que requieren mucho tiempo, trabajar con API o SDK desconocidos, hacer un uso correcto y eficaz de las API de AWS y otros escenarios de codificación comunes, como leer y escribir archivos, procesar imágenes y escribir pruebas unitarias.
Introducción a Amazon CodeWhisperer
Aprenda a configurar CodeWhisperer para usarlo con cada uno de los cuatro IDE posibles: Kit de herramientas de AWS para JetBrains, Kit de herramientas de AWS para Visual Studio Code, Lambda y AWS Cloud9.
Taller de Amazon CodeWhisperer
Aprenda a crear una aplicación completa, basada en eventos y sin servidor para el reconocimiento de imágenes. Con la ayuda de Amazon CodeWhisperer, escribirá su propio código que se ejecuta sobre AWS Lambda para interactuar con Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 y API HTTP de terceros para realizar el reconocimiento de imágenes.
-
AWS Trainium
-
Ampliación de la formación distribuida con AWS Trainium y Amazon EKS
Descubra cómo puede beneficiarse de la disponibilidad general de las instancias Trn1 de Amazon EC2 con tecnología de AWS Trainium - un acelerador de aprendizaje automático especialmente diseñado y optimizado para proporcionar una plataforma de alto rendimiento, rentable y escalable de forma masiva para entrenar modelos de aprendizaje profundo en la nube.
Descripción general de AWS Trainium
Conozca AWS Trainium, el acelerador de machine learning (ML) de segunda generación que AWS creó especialmente para el entrenamiento de aprendizaje profundo de más de 100 000 000 000 millones de modelos de parámetros. Cada instancia Trn1 de Amazon Elastic Compute Cloud (EC2) implementa hasta 16 aceleradores de AWS Trainium para ofrecer una solución de alto rendimiento y bajo costo para el entrenamiento de aprendizaje profundo (DL) en la nube.
Instancias de Trainium recomendadas
Descubra cómo se diseñan las instancias de AWS Trainium para proporcionar un alto rendimiento y rentabilidad a las cargas de trabajo de inferencia de modelos de aprendizaje profundo.
-
AWS Inferentia
-
Descripción general de AWS Inferentia
Comprender cómo están diseñados lo aceleradores por AWS para ofrecer un alto rendimiento al menor costo para sus aplicaciones de inferencia de aprendizaje profundo (DL).
AWS Inferentia2 se basa en AWS Inferentia1 y ofrece un rendimiento 4 veces mayor y una latencia 10 veces menor
Conozca para qué está optimizado AWS Inferentia2 y explore cómo se diseñó desde cero para ofrecer un mayor rendimiento y, al mismo tiempo, reducir el costo de los LLM y la inferencia de IA generativa.
Inferencia de machine learning mediante AWS Inferentia
Aprenda a crear un clúster de Amazon EKS con nodos que ejecuten instancias Inf1 de Amazon EC2 y (opcionalmente) a implementar una aplicación de muestra. Las instancias Inf1 de Amazon EC2 funcionan con chips de AWS Inferentia, que AWS crea a medida para proporcionar inferencias de alto rendimiento y menor costo en la nube.
-
Amazon Titan
-
Descripción general de Amazon Titan
Descubra cómo los FM de Amazon Titan se entrenan previamente con grandes conjuntos de datos, lo que los convierte en modelos potentes de uso general. Aprenda a usarlos tal cual - o de forma privada - para personalizarlos con sus propios datos para una tarea en particular sin anotar grandes volúmenes de datos.
Explorar
Estos diagramas de arquitectura de referencia muestran ejemplos de servicios de IA y ML de AWS en uso.
Consulte los documentos técnicos que le ayudarán a empezar y a conocer las mejores prácticas a la hora de elegir y utilizar los servicios de IA y ML.
Explore las soluciones comprobadas y la guía de arquitectura para los casos de uso comunes de los servicios de IA y ML.