Stages 文档
Stages 是 Morpheus 管道的构建模块。以下是最常用的 stages 列表。有关 stages 的完整列表,请参阅 stages API morpheus.stages。此外,示例和开发者指南中还包含一些自定义 stages。
DOCA Source Stage
DocaSourceStage源 stage,用于使用 CUDA 内核中的 DOCA GPUNetIO 功能从 ConnectX NIC 接收 GPU 内存中的原始数据包数据,以实际接收和处理以太网网络数据包。接收到的数据包信息以 RawPacketMessage 的形式传递到下一个管道 stage。默认情况下不编译此 stage,有关构建此 stage 的详细信息,请参阅 DOCA 示例。DOCA Convert Stage
DocaConvertStage将 DOCA Source Stage 接收的 RawPacketMessage 格式转换为更复杂的消息格式 MetaMessage。数据包信息永远不会离开 GPU 内存。默认情况下不编译此 stage,有关构建此 stage 的详细信息,请参阅 DOCA 示例。
Linear Modules Stage
LinearModulesStage加载现有的、已注册的模块,并将其包装为 Morpheus stage。有关模块的详细信息,请参阅 Morpheus 模块。Monitor Stage
MonitorStage在管道中的特定点显示吞吐量数字。Multi Port Module Stage
MultiPortModulesStage加载现有的、已注册的多端口模块,并将其包装为多端口 Morpheus stage。有关模块的详细信息,请参阅 Morpheus 模块。Trigger Stage
TriggerStage缓冲数据,直到前一个 stage 完成,这对于一次测试一个 stage 的性能很有用。
PyTorch Inference Stage
PyTorchInferenceStagePyTorch 推理 stage,用于大多数管道模式,自动编码器除外。Triton Inference Stage
TritonInferenceStage推理 stage,它利用 Triton Inference Server。
App Shield Source Stage
AppShieldSourceStage将来自一个或多个插件的 App Shield 消息加载到 DataFrame 中。Control Message File Source Stage
ControlMessageFileSourceStage从 (fsspec)[https://filesystem-spec.readthedocs.io/en/latest/api.html?highlight=open_files#fsspec.open_files] 字符串列表指定的不同源接收控制消息。Control Message Kafka Source Stage
ControlMessageKafkaSourceStage从 Kafka 集群加载控制消息。Databricks Delta Lake Source Stage
DataBricksDeltaLakeSourceStage用于从 DeltaLake 表加载消息的源 stage。File Source Stage
FileSourceStage从文件加载消息。HTTP Client Source Stage
HttpClientSourceStage轮询远程 HTTP 服务器以获取传入数据。HTTP Server Source Stage
HttpServerSourceStage启动 HTTP 服务器并侦听指定端点上的传入请求。In Memory Source Stage
InMemorySourceStage输入源,用于发出预定义的 DataFrame 列表。Kafka Source Stage
KafkaSourceStage从 Kafka 集群加载消息。RSS Source Stage
RSSSourceStage将 RSS feed 项目加载到 pandas DataFrame 中。
LLM Engine Stage
LLMEngineStage在 Morpheus 管道中执行 LLM 引擎。
HTTP Client Sink Stage
HttpClientSinkStage将所有消息写入 HTTP 端点。HTTP Server Sink Stage
HttpServerSinkStage启动 HTTP 服务器并侦听指定端点上的传入请求。In Memory Sink Stage
InMemorySinkStage将传入消息收集到列表中,该列表可以在管道完成后访问。Databricks Delta Lake Sink Stage
DataBricksDeltaLakeSinkStage将消息写入 DeltaLake 表。Write To Elastic Search Stage
WriteToElasticsearchStage将消息作为文档写入 Elasticsearch。Write To File Stage
WriteToFileStage将所有消息写入文件。Write To Kafka Stage
WriteToKafkaStage将所有消息写入 Kafka 集群。Write To Vector DB Stage
WriteToVectorDBStage将所有消息写入向量数据库。
Add Classifications Stage
AddClassificationsStage将检测到的分类添加到每条消息。Add Scores Stage
AddScoresStage将概率分数添加到每条消息。Filter Detections Stage
FilterDetectionsStage按分类阈值过滤消息。Generate Viz Frames Stage
GenerateVizFramesStage写出可视化 DataFrame。MLflow Drift Stage
MLFlowDriftStage向 MLflow 报告模型漂移统计信息。Serialize Stage
SerializeStage在消息中包含和排除列。Time Series Stage
TimeSeriesStage执行时间序列异常检测并添加预测。
Deserialize Stage
DeserializeStage根据管道pipeline_batch_size参数(morpheus.config.Config对象)对消息进行分区。Drop Null Stage
DropNullStage从 DataFrame 中删除空数据条目。Preprocess FIL Stage
PreprocessFILStage为推理准备 FIL 输入 DataFrame。Preprocess NLP Stage
PreprocessNLPStage为推理准备 NLP 输入 DataFrame。