在边缘设备上使用专用框架进行推理:
简而言之:模型 -> 推理框架 -> 高性能可执行程序
推理引擎框架都采用分层式设计,主要包含静态侧和动态侧两部分功能:
ONNX 模型是最通用的模型转化格式,也是部署常用的模型格式:
支持:
.onnx
.etm
继续:CUDA(AVX, NEON) 算子加速、RISCV 裸机移植、引擎感知优化