onnxruntime的[Custom operators](https://onnxruntime.ai/docs/reference/operators/add-custom-op.html#wrapping-an-external-inference-runtime-in-a-custom-operator),模型中间需要自行实现算子,官方例子好像没有类似的机制 mtnn没看到有相关的接口,需要在E300平台上部署,急! 另外有考虑积极拥抱onnxruntime生态么,[华为CANN](https://onnxruntime.ai/docs/execution-providers/community-maintained/CANN-ExecutionProvider.html)做的就不错
onnxruntime的Custom operators,模型中间需要自行实现算子,官方例子好像没有类似的机制
mtnn没看到有相关的接口,需要在E300平台上部署,急!
另外有考虑积极拥抱onnxruntime生态么,华为CANN做的就不错