WHAT WE DO

CNN推論 / LLM推論アクセラレータを、FPGAからASICまで。

SpiceEngineは、専用アクセラレータの設計・実装を一貫して提供します。まずFPGAで実証し、IP化を経てASICへ進む段階戦略を採用します。

Strengths

段階戦略 FPGA → IP化 → ASIC
価値指標 画像認識1ms / 消費電力5W未満
適用範囲 エッジからクラウドまで

CNN推論アクセラレータ

CNN推論でJetson比21倍を掲げるアクセラレータ。低遅延かつ省電力なコンピュータビジョン処理に向けた設計を進めています。

LLM推論アクセラレータ

LLM推論に向けた専用アクセラレータを開発。高効率推論のために、専用ハードウェアでオーバーヘッドを抑える設計を採用します。

Technology

データフローアーキテクチャと専用ハードウェア設計を組み合わせ、CPU/GPUのオーバーヘッド抑制を狙います。Wasabi2.0は、モデル圧縮・マルチコア・8-bit量子化の統合として紹介されています。

WASABI 2.0 with AXI architecture diagram
WASABI 2.0 with AXI Architecture

Use Cases / Applications

性能や将来計画に関する記述は、公開ページ上で掲げられている内容に基づきます。