NVIDIA NeMo Guardrails
简介
文档
安装指南
入门指南
Hello World
Colang 核心概念
演示用例
输入 Rail
输出 Rail
主题 Rail
检索增强生成
Colang 2.0
概述
变更内容
入门指南
语言参考
用户指南
配置指南
Guardrails 库
Guardrails 流程
Colang 指南
LLM 支持
Python API
CLI
服务器指南
LangChain
详细日志记录
越狱检测启发法
NVIDIA AI 端点
使用 NVIDIA API 目录上托管的 LLM
Vertex AI
多配置 API
从 Colang 1 迁移到 Colang 2
安全性
安全指南
红队演练
评估
LLM 漏洞扫描
高级用户指南
生成选项
提示词自定义
嵌入搜索提供商
NeMo Guardrails 与 Docker
流式传输
AlignScore 部署
提取用户提供的值
机器人消息指令
基于事件的 API
越狱检测启发法部署
使用 vLLM 自托管 Llama Guard
嵌套 AsyncIO 循环
Vertex AI 设置
其他
架构
术语表
常见问题 (FAQ)
NVIDIA NeMo Guardrails
»
<no title>
»
NVIDIA AI 端点
NVIDIA AI 端点
使用 NVIDIA API 目录上托管的 LLM
先决条件
配置
用法
结论