
NVMe Over Fabricの構築
White Paper Building NVMe Over Fabrics withBittWare FPGA Solutions 概要 Non-Volatile Memory Express(NVMe)プロトコルの登場以来、データセンターの顧客は、NVMeを利用するようになりました。
AI/MLモデルと推論では、数年で多くのことが変化しています。学習アルゴリズムの処理に優れたハードウェアは、リアルタイムでバッチサイズ1の推論を行う際のレイテンシーや利用率で遅れをとることがあります。ディープラーニングモデルはより複雑になり、リアルタイムアプリケーションに対応するための新しいアプローチが必要になっています。
機械学習が成熟するにつれて、アクセラレーション の技術はより賢く、より効率的になっています。これは、専用のASICデバイスを使用するなどのシリコンレベルでも、接続に8ビット整数を使用するなどの設計アプローチでも同じです。
BittWare30年以上にわたって最高のアクセラレーション テクノロジーを市場に送り出してきた信頼あるブランドであり、推論に最適化されたFPGAおよびASICベースのAIソリューションのエコシステムを構築しています。
CPUやGPUベースのシステムを最新のデータセンター・グレードのテンソル・プロセッサーに拡張する場合でも、エッジに特化したソリューションで最後の1ワットまで性能を引き出す場合でも、リスクを低減してより早く市場に投入するために必要なものを用意しています。
BittWare AI/MLのお客様はどこに展開しているのでしょうか?
また、一部のパートナーには、その技術を評価するための開発プラットフォームも提供しています。
パートナープログラムのエコシステムには、次世代ASICベースのカードからFPGA上で開発するIPまで、さまざまなAI/ML推論オプションが含まれています。
FPGAデバイス上でのニューラルネットワークの推論について、その長所と短所を説明しながら見ていきます。
プログラミングStratix 10 機械学習のためのOpenCLを使用します。カバーするトピックOpenCL、機械学習、Stratix 10。
FPGAの可変精度を利用して、より良い機械学習推論ネットワークを構築する。トピックカバー:機械学習、アプリケーションテーラリング、Arria 10.
White Paper Building NVMe Over Fabrics withBittWare FPGA Solutions 概要 Non-Volatile Memory Express(NVMe)プロトコルの登場以来、データセンターの顧客は、NVMeを利用するようになりました。
BittWare オンデマンド・ウェビナー エンタープライズクラスのFPGAサーバー:TeraBoxのアプローチ FPGAベースのカードは、データセンターとエッジコンピューティングのための重要なデバイスとして成熟しています。しかし、その一方で
BittWare パートナーIP NVMeブリッジ・プラットフォーム NVMeインターセプト AXI-Stream サンドボックスIP 計算機型ストレージ・デバイス(CSD)は、ストレージ・エンドポイントに計算機型ストレージ機能(CSF)を提供することができます。
BittWare バルセロナ・スーパーコンピューティング・センターのアプリケーション例を紹介する次世代インテル® Agilex™ FPGAによるハイパフォーマンス・コンピューティングのウェビナーをオンデマンドで提供開始(収録されています
45 South Main Street, Concord, NH 03301|コンコード、ニューハンプシャー州 603-406-6200 | 連絡先