人工知能推論
加速 SW
汎用実行加速器
SoyNetは人工知能モデルの汎用加速ソリューションで、特定のモデルだけではなく、
公開された多数の様々な人工知能モデルがSoyNet上で駆動が出来ます

速い実行速度
SoyNetを利用したYolo V3モデルをテストした結果、
処理速度とGPUメモリーの使用量はそれぞれ3倍と1/9の水準
で測定されました。
適用されるモデルによって違いますが、
一般的に速度は 2~5倍、GPUメモリーは1/5~1/9倍を使用
する事になります。

- ベンチマーク環境
-
- BM OS(Windows 10 x64), CPU(i7-8770), Mem(16GB), GPU(GTX1080Ti 11GB)
- Model YOLOv3-DarkNet53(CNN Object Detection)
- Model Size 416x416, Float32, TensorFlow 1.12(TensorPT 4.0)
SoyNetの特長
-
費用節減
同一な装備でもSoyNetの適用によって
既存提供可能な数より
更に多いInference処理を支援し、
実行サービスのための高仕様の
サーバー費用を節減出来ます。 -
高速処理
要件の支援限られた資源内での高速処理が
必要な自律走行等の様々な領域で
SoyNetは速度のイシューを
容易く解決できます。 -
インターネットが
断絶した際にも動作ほとんどのInferenceをクラウド
基盤で処理する現在とは違って、
SoyNetはEdge装備に埋め込まれて
顧客サービスの一番前段で、
インターネット連結が無くても
Inferenceを提供出来るし、
これを通して更に多様な領域への
サービスの拡張が出来ます。 -
既存開発者の
活用範囲拡大高度に訓練された人工知能の
研究者だけではなく、
応用アプリケーションの開発者も
SoyNetのAPIを利用して
人工知能サービスを開発出来ます。
企業はこれを通して豊富な
既存開発者のPoolを
最大に活用可能になります。