日々精進

新しく学んだことを書き留めていきます

CPU版のTensorRTはOpenVINO

TensorRTを使って推論を高速化しようとしたところ、CPUでは使えないという情報が。。

forums.developer.nvidia.com

www.reddit.com

NVIDIAが作ってるからそりゃそうか。。

類似ソリューションを探したところ、OpenVINOというものをINTELが作っているらしい。

www.intel.co.jp

以下によると、CaffeのFP32のモデルと比較してINT8に量子化+OpenVINOで動かしたモデルは10~20倍速いらしい。ほんとかな。。

https://indico.cern.ch/event/813377/contributions/3525103/attachments/1913596/3162816/11.15-11.30_Iosif_Meyerov.pdf