Skip to content

加载 ONNX 模型

加载指定的 ONNX 模型文件,启动独立的推理进程,并返回模型的唯一标识符(onnxId)。

💡 机器加速

此接口会自动判定宿主机是否支持CUDA,如果不支持默认切换为CPU推理,无需手动设置。

接口说明

接口类型

loadOnnxModel

参数

参数名类型必填说明
filestringONNX 模型文件的完整路径

返回值

返回一个字符串类型的模型 ID(onnxId),格式为:onnx_ + 随机字符串

javascript
// 返回示例
"onnx_8k3j2h9s1d4f6"

基本使用

javascript
// 加载 ONNX 模型
const onnxId = await apiInvoke('loadOnnxModel', {
    file: 'C:\\models\\yolov5s.onnx'
});

console.log('模型加载成功,ID:', onnxId);
// 输出: 模型加载成功,ID: onnx_8k3j2h9s1d4f6

性能建议

  1. 按需卸载 - 如果不频繁使用的模型,完成任务后及时卸载不需要的模型
  2. 合理分配 - 受限于宿主机性能,不要加载太多的模型

商务合作:try.catch@foxmail.com