Barreras de protección de Amazon Bedrock
Implemente medidas de seguridad personalizadas según los requisitos de su aplicación y las políticas de IA responsablesCreación de aplicaciones de IA responsable con las barreras de protección de Amazon Bedrock
Las barreras de protección de Amazon Bedrock ofrecen protecciones adicionales personalizables, además de las protecciones nativas de los modelos fundacionales, y protecciones de seguridad que se encuentran entre las mejores de la industria. Las protecciones incluyen lo siguiente:
- Bloqueo de hasta un 85 % más de contenido dañino
- Filtrado de más del 75 % de las respuestas con alucinaciones en cargas de trabajo de resumen y RAG
- Habilitación para que los clientes personalicen y apliquen protecciones de seguridad, privacidad y veracidad en una única solución
Ofrezca un nivel uniforme de seguridad de IA en todas sus aplicaciones
Las barreras de protección de Amazon Bedrock evalúan las entradas de los usuarios y las respuestas del FM según las políticas específicas para cada caso práctico y ofrecen una capa adicional de protección independientemente del FM subyacente. Las barreras de protección de Amazon Bedrock son la única capacidad de IA responsable ofrecida por un proveedor de nube importante. Habilita a los clientes a crear y personalizar protecciones de seguridad, privacidad y veracidad para las aplicaciones de IA generativa en una única solución. Son compatibles con todos los modelos de lenguaje de gran tamaño (LLM) en Amazon Bedrock, así como con modelos personalizados. Los clientes pueden crear varias barreras de protección, configurar cada una con distintas combinaciones de controles y utilizarlas en distintas aplicaciones y casos de uso. Las barreras de protección de Amazon Bedrock también se pueden integrar en los agentes y las bases de conocimiento de Amazon Bedrock para crear aplicaciones de IA generativa alineadas con sus políticas de IA responsable. Además, las barreras de protección de Amazon Bedrock ofrecen la API ApplyGuardrail, la cual evalúa las entradas de los usuarios y modela las respuestas que genera cualquier modelo fundacional personalizado o externo por fuera de Bedrock.
Bloquee temas no deseados en sus aplicaciones de IA generativa
Las organizaciones reconocen la necesidad de gestionar las interacciones dentro de las aplicaciones de IA generativas para ofrecer una experiencia de usuario relevante y segura. Quieren personalizar aún más las interacciones para centrarse en temas relevantes para su negocio y alinearse con las políticas de la empresa. Con una breve descripción en lenguaje natural, las barreras de protección de Amazon Bedrock permiten definir un conjunto de temas que se deben evitar en el contexto de su aplicación. Las barreras de protección de Amazon Bedrock detectan y bloquean las entradas de los usuarios y las respuestas del FM que involucren temas restringidos. Por ejemplo, se puede diseñar un asistente bancario para evitar temas relacionados con el asesoramiento de inversiones.
Filtre el contenido dañino en función de sus barreras de protección responsables de las políticas de IA
Las barreras de protección de Amazon Bedrock ofrecen filtros de contenido con umbrales configurables para filtrar el contenido dañino en categorías como odio, insultos, contenido sexual, violencia y mala conducta (incluida la actividad criminal), y protegen contra ataques de peticiones (como la inyección de peticiones y el jailbreak). La mayoría de los modelos fundacionales (FM) ya proporcionan protecciones integradas para evitar la generación de respuestas dañinas. Además de estas protecciones, las barreras de protección de Amazon Bedrock permiten configurar umbrales en las diferentes categorías de contenido para filtrar las interacciones dañinas. El aumento de la potencia del filtro aumenta la agresividad del filtrado. Evalúan automáticamente tanto las entradas de los usuarios como las respuestas del modelo para detectar y prevenir el contenido de las categorías restringidas. Por ejemplo, un sitio de comercio electrónico puede diseñar su asistente en línea para evitar el uso de lenguaje inapropiado, como la incitación al odio o los insultos.
Elimine la información confidencial (PII) para proteger la privacidad
Las barreras de protección de Amazon Bedrock permiten detectar contenido confidencial, como la información de identificación personal (PII) en las entradas de los usuarios y en las respuestas del FM. Puede seleccionar de una lista de PII predefinidas o definir un tipo de información confidencial personalizado mediante expresiones regulares (RegEx). Según el caso de uso, puede rechazar de forma selectiva las entradas que contienen información sensible o redactarla en las respuestas del FM. Por ejemplo, puede redactar la información personal de los usuarios mientras genera resúmenes a partir de las transcripciones de las conversaciones entre clientes y agentes en un centro de llamadas.
Bloquee el contenido inapropiado con un filtro de palabras personalizado
Las barreras de protección de Amazon Bedrock permiten configurar un conjunto de palabras o frases personalizadas que desea detectar y bloquear en la interacción entre los usuarios y las aplicaciones de IA generativa. Esto también le permitirá detectar y bloquear blasfemias, así como palabras personalizadas específicas, como nombres de competidores u otras palabras ofensivas.
Detección de alucinaciones en respuestas del modelo con verificaciones contextuales
Para mantener y aumentar la confianza de sus usuarios, las organizaciones deben desplegar aplicaciones de IA generativa que sean veraces y confiables. Sin embargo, las aplicaciones creadas con modelos fundacionales pueden generar información incorrecta debido a las alucinaciones. Por ejemplo, los modelos fundacionales pueden generar respuestas que se desvíen de la información original, combinar varios datos o inventar información nueva. Las barreras de protección de Amazon Bedrock son compatibles con las verificaciones contextuales, lo cual les permite detectar y filtrar las alucinaciones en caso de que las respuestas no estén fundamentadas (por ejemplo, información imprecisa o nueva) en la información de origen y que sean irrelevantes para la consulta o la instrucción del usuario. Las verificaciones contextuales pueden detectar alucinaciones para las aplicaciones de RAG, de resumen y conversacionales, en las cuales la información original se puede utilizar como una referencia para validar la respuesta del modelo.
Pasos siguientes
¿Ha encontrado lo que buscaba hoy?
Háganoslo saber para que podamos mejorar la calidad del contenido de nuestras páginas.