人工知能推論
加速 SW

汎用実行加速器

SoyNetは人工知能モデルの汎用加速ソリューションで、特定のモデルだけではなく、
公開された多数の様々な人工知能モデルがSoyNet上で駆動が出来ます

速い実行速度

SoyNetを利用したYolo V3モデルをテストした結果、
処理速度とGPUメモリーの使用量はそれぞれ3倍と1/9の水準
で測定されました。
適用されるモデルによって違いますが、
一般的に速度は 2~5倍、GPUメモリーは1/5~1/9倍を使用
する事になります。

ベンチマーク環境
  • BM OS(Windows 10 x64), CPU(i7-8770), Mem(16GB), GPU(GTX1080Ti 11GB)
  • Model YOLOv3-DarkNet53(CNN Object Detection)
  • Model Size 416x416, Float32, TensorFlow 1.12(TensorPT 4.0)

SoyNetの特長

  • 費用節減

    同一な装備でもSoyNetの適用によって
    既存提供可能な数より
    更に多いInference処理を支援し、
    実行サービスのための高仕様の
    サーバー費用を節減出来ます。

  • 高速処理
    要件の支援

    限られた資源内での高速処理が
     必要な自律走行等の様々な領域で
     SoyNetは速度のイシューを
     容易く解決できます。

  • インターネットが
    断絶した際にも動作

    ほとんどのInferenceをクラウド
    基盤で処理する現在とは違って、
    SoyNetはEdge装備に埋め込まれて
    顧客サービスの一番前段で、
    インターネット連結が無くても
    Inferenceを提供出来るし、
    これを通して更に多様な領域への
    サービスの拡張が出来ます。

  • 既存開発者の
    活用範囲拡大

    高度に訓練された人工知能の
    研究者だけではなく、
    応用アプリケーションの開発者も
    SoyNetのAPIを利用して
    人工知能サービスを開発出来ます。
    企業はこれを通して豊富な
    既存開発者のPoolを
    最大に活用可能になります。