常见问题解答 (FAQ)#

这是一份常见问题解答文档。如果你的问题在这里没有解答,请随时打开一个 GitHub issue 或使用 GitHub Discussions 提问。

目录#

  1. 我可以在生产环境中部署 NeMo Guardrails 吗?

  2. repo 中提供的示例有多健壮?

  3. 我可以将哪种类型的信息添加到知识库中?

  4. NeMo Guardrails 支持哪些 LLM?

  5. 这个效果如何?


我可以在生产环境中部署 NeMo Guardrails 吗?#

当前的 alpha 版本正在积极开发中,可能会进行更改和改进,这可能会导致不稳定和意外行为。我们目前不建议在生产环境中部署此 alpha 版本。感谢您在此阶段的理解和贡献。

返回顶部

repo 中提供的示例有多健壮?#

示例配置旨在用于教育目的。其目的是展示工具包的核心行为。为了实现高度的健壮性,应该通过仔细的应用程序设计以及迭代测试和完善来扩展 guardrails 配置。

返回顶部

我可以将哪种类型的信息添加到知识库中?#

知识库旨在用于回答关于非敏感信息的问题(例如,不包括 PII、PHI)。知识库的内容被分块,并且其中任何部分都可能最终出现在发送给 LLM 的 prompt 中。在任何负责任的安全架构中,敏感信息都不应包含在任何会暴露给 LLM 的来源中。

返回顶部

NeMo Guardrails 支持哪些 LLM?#

从技术上讲,你可以将 guardrails 配置连接到 LangChain 支持的任何 LLM 提供商(例如,ai21, aleph_alpha, anthropic, anyscale, azure, cohere, huggingface_endpoint, huggingface_hub, openai, self_hosted, self_hosted_hugging_face - 查看 LangChain 官方文档以获取完整列表)或任何自定义 LLM。根据 LLM 的能力,有些会比其他效果更好。我们正在进行评估,并将很快分享更多详细信息。

更改某些配置元素可以帮助提高与给定 LLM 提供商或自定义 LLM 的兼容性,包括通用指令或 prompt 模板。这本质上是 prompt 工程,这是一个不完善的过程。随着各种 LLM 的能力在未来不断发展,我们预计这个过程会变得更容易。

返回顶部

这个效果如何?#

我们将很快发布更全面的评估,分解 canonical form 生成、flow 生成、安全 rail 准确性等组件。

返回顶部