加载 ONNX 模型
加载指定的 ONNX 模型文件,启动独立的推理进程,并返回模型的唯一标识符(onnxId)。
💡 机器加速
此接口会自动判定宿主机是否支持CUDA,如果不支持默认切换为CPU推理,无需手动设置。
接口说明
接口类型
loadOnnxModel参数
| 参数名 | 类型 | 必填 | 说明 |
|---|---|---|---|
| file | string | 是 | ONNX 模型文件的完整路径 |
返回值
返回一个字符串类型的模型 ID(onnxId),格式为:onnx_ + 随机字符串
javascript
// 返回示例
"onnx_8k3j2h9s1d4f6"基本使用
javascript
// 加载 ONNX 模型
const onnxId = await apiInvoke('loadOnnxModel', {
file: 'C:\\models\\yolov5s.onnx'
});
console.log('模型加载成功,ID:', onnxId);
// 输出: 模型加载成功,ID: onnx_8k3j2h9s1d4f6性能建议
- 按需卸载 - 如果不频繁使用的模型,完成任务后及时卸载不需要的模型
- 合理分配 - 受限于宿主机性能,不要加载太多的模型