模型推理运行时-ONNX

type
status
date
slug
summary
tags
category
icon
password
网址

设置

  1. 您的 ~/.kube/config 应指向已安装 KServe 的集群。
  1. 您集群的 Istio 入口网关必须可通过网络访问

创建推理服务

新架构
注意
对于默认的 kserve 安装,在使用新架构时,您必须将 protocolVersion 指定为 v2 以用于 onnx。否则,您将收到运行时未找到的错误。
预期输出

运行示例推理

  1. 设置环境变量 第一步是确定入口 IP 和端口并设置 INGRESS_HOSTINGRESS_PORT
  1. 验证服务是否正常
  1. 安装依赖项
  1. 在 jupyter 中运行示例笔记本

上传您自己的模型

本说明中示例所用的样本模型已上传并可供使用。但是,如果您想修改示例以使用自己的 ONNX 模型,您只需要将模型作为 model.onnx 上传到 S3、GCS 或 Azure Blob 即可。
 
上一篇
模型推理运行时-MLFlow
下一篇
模型推理运行时-AMD
Loading...
文章列表
Kserve中文文档
快速开始
管理指南
用户指南
开发指南
机器学习概念
大模型周报