tritonclient.http.aio#
类
|
此功能目前处于 Beta 阶段,可能会发生更改。 |
- class tritonclient.http.aio.InferenceServerClient(
- url,
- verbose=False,
- conn_limit=100,
- conn_timeout=60.0,
- ssl=False,
- ssl_context=None,
此功能目前处于 Beta 阶段,可能会发生更改。
类似于
tritonclient.http.InferenceServerClient
,用于通过 asyncio 语法进行调用。此对象旨在由单个线程使用,不支持同时使用不同线程调用方法,可能会导致未定义的行为。- _fix_header(headers)#
返回一个对 aiohttp 有效的标头。
- 参数:
headers (dict (或 None)) – 在处理请求之前要修复的 HTTP 标头。
- async _get(request_uri, headers, query_params)#
向服务器发出 GET 请求
- 参数:
request_uri (str) – GET 请求中要使用的请求 URI。
headers (dict) – 要包含在请求中的其他 HTTP 标头。
query_params (dict) – 在网络事务中使用的可选 URL 查询参数。
- 返回:
来自服务器的响应。
- 返回类型:
aiohttp.ClientResponse
- async _post(
- request_uri,
- request_body,
- headers,
- query_params,
向服务器发出 POST 请求
- 参数:
request_uri (str) – POST 请求中要使用的请求 URI。
request_body (str) – 请求的主体
headers (dict) – 要包含在请求中的其他 HTTP 标头。
query_params (dict) – 在网络事务中使用的可选 URL 查询参数。
- 返回:
来自服务器的响应。
- 返回类型:
aiohttp.ClientResponse
- _validate_headers(headers)#
在处理请求之前检查任何不支持的 HTTP 标头。
- 参数:
headers (dict) – 在处理请求之前要验证的 HTTP 标头。
- 引发:
InferenceServerException – 如果请求中包含不支持的 HTTP 标头。
- async close()#
关闭客户端。未来对服务器的任何调用都将导致错误。
- static generate_request_body(
- inputs,
- outputs=None,
- request_id='',
- sequence_id=0,
- sequence_start=False,
- sequence_end=False,
- priority=0,
- timeout=None,
- parameters=None,
请参阅
tritonclient.http.InferenceServerClient.generate_request_body()
- region_name='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_cuda_shared_memory_status()
- async get_inference_statistics(
- model_name='',
- model_version='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_inference_statistics()
- async get_log_settings(
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_log_settings()
- async get_model_config(
- model_name,
- model_version='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_model_config()
- async get_model_metadata(
- model_name,
- model_version='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_model_metadata()
- async get_model_repository_index(
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_model_repository_index()
- async get_server_metadata(
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_server_metadata()
- region_name='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_system_shared_memory_status()
- async get_trace_settings(
- model_name=None,
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.get_trace_settings()
- async infer(
- model_name,
- inputs,
- model_version='',
- outputs=None,
- request_id='',
- sequence_id=0,
- sequence_start=False,
- sequence_end=False,
- priority=0,
- timeout=None,
- headers=None,
- query_params=None,
- request_compression_algorithm=None,
- response_compression_algorithm=None,
- parameters=None,
- async is_model_ready(
- model_name,
- model_version='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.is_model_ready()
- async is_server_live(headers=None, query_params=None)#
请参阅
tritonclient.http.InferenceServerClient.is_server_live()
- async is_server_ready(headers=None, query_params=None)#
请参阅
tritonclient.http.InferenceServerClient.is_server_ready()
- async load_model(
- model_name,
- headers=None,
- query_params=None,
- config=None,
- files=None,
- static parse_response_body(
- response_body,
- verbose=False,
- header_length=None,
- content_encoding=None,
请参阅
tritonclient.http.InferenceServerClient.parse_response_body()
- name,
- raw_handle,
- device_id,
- byte_size,
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.register_cuda_shared_memory()
- name,
- key,
- byte_size,
- offset=0,
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.register_system_shared_memory()
- async unload_model(
- model_name,
- headers=None,
- query_params=None,
- unload_dependents=False,
- name='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.unregister_cuda_shared_memory()
- name='',
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.unregister_system_shared_memory()
- async update_log_settings(
- settings,
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.update_log_settings()
- async update_trace_settings(
- model_name=None,
- settings={},
- headers=None,
- query_params=None,
请参阅
tritonclient.http.InferenceServerClient.update_trace_settings()
- async tritonclient.http.aio._get_error(response)#
如果响应指示错误,则返回
InferenceServerException
对象。如果没有错误,则返回 None
- async tritonclient.http.aio._raise_if_error(response)#
如果收到来自服务器的非成功响应,则引发
InferenceServerException
模块