Guardrail

生成式AI模型可以在各种主题上产生信息,但其应用带来了新的挑战,包括保持相关性、避免有害内容、保护个人身份信息(PII)等敏感信息,以及减轻幻觉等。

虽然Bedrock上的基础模型(FM)提供了内置的保护措施,但这些通常是特定于模型的,可能无法完全与组织的用例或负责任的AI原则保持一致。因此,开发人员经常需要实施额外、定制的安全和隐私控制。当公司使用多个FM时,这种需求变得更加明显,因为维护一致的保护措施,对于加速开发周期和实施统一的负责任AI至关重要。

Bedrock Guardrails引入了保护措施,可以防止有害内容,并根据关键安全标准评估模型。使用Bedrock Guardrails,可以在生成式AI应用中实施定制保护措施。通过创建多个不同场景的保护措施,并将其应用于多个FM,从而改善用户体验并标准化生成式AI应用的安全控制。