論文の概要: VUSA: Virtually Upscaled Systolic Array Architecture to Exploit Unstructured Sparsity in AI Acceleration
- arxiv url: http://arxiv.org/abs/2506.01166v1
- Date: Sun, 01 Jun 2025 20:59:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.971218
- Title: VUSA: Virtually Upscaled Systolic Array Architecture to Exploit Unstructured Sparsity in AI Acceleration
- Title(参考訳): VUSA:AIアクセラレーションにおいて非構造化の空間を爆発させる仮想的にスケールアップされたシストリックアレーアーキテクチャ
- Authors: Shereef Helal, Alberto Garcia-Ortiz, Lennart Bamberg,
- Abstract要約: VUSAは、より大きな行列乗算を実行するために現在の空間に基づいて仮想的に成長する、シストリックアレイアーキテクチャである。
提案アーキテクチャは, それぞれ37%, 68%の省電力化を実現している。
- 参考スコア(独自算出の注目度): 0.49157446832511503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging high degrees of unstructured sparsity is a promising approach to enhance the efficiency of deep neural network DNN accelerators - particularly important for emerging Edge-AI applications. We introduce VUSA, a systolic-array architecture that virtually grows based on the present sparsity to perform larger matrix multiplications with the same number of physical multiply-accumulate MAC units. The proposed architecture achieves saving by 37% and 68% in area and power efficiency, respectively, at the same peak-performance, compared to a baseline systolic array architecture in a commercial 16-nm technology. Still, the proposed architecture supports acceleration for any DNN with any sparsity - even no sparsity at all. Thus, the proposed architecture is application-independent, making it viable for general-purpose AI acceleration.
- Abstract(参考訳): 高度な非構造化空間を活用することは、ディープニューラルネットワークDNNアクセラレーターの効率を高めるための有望なアプローチである。
物理量乗算MACユニット数と同じ数の行列乗算を行うために,現在の空間に基づいて仮想的に成長するサイストリックアレイアーキテクチャであるVUSAを導入する。
提案アーキテクチャは16nmの商用技術において,ベースラインのシストリックアレイアーキテクチャと比較して,面積と電力効率の37%,電力効率の68%の節約を実現している。
それでも、提案されたアーキテクチャは、あらゆるDNNのアクセラレーションをサポートする。
したがって、提案アーキテクチャはアプリケーションに依存しないため、汎用AIアクセラレーションに有効である。
関連論文リスト
- Strassen Multisystolic Array Hardware Architectures [0.0]
ストラッセンの行列乗算アルゴリズムは、単純行列乗算の複雑さを低減する。
汎用ハードウェアは、アルゴリズムが約束する理論的なスピードアップを達成するには適していない。
本稿では,Strassenのアルゴリズムの理論的複雑性の低減をハードウェアリソースの節約に直接効率的に変換する,新しいシストリックアレイアーキテクチャを提案し,評価する。
論文 参考訳(メタデータ) (2025-02-14T10:40:32Z) - HYDRA: Hybrid Data Multiplexing and Run-time Layer Configurable DNN Accelerator [0.0]
本稿では,FMA(Fused-Multiply-Accumulate)を改良した単一層の実行において,単一のアクティベーション関数を再利用した層多重化手法を提案する。
提案したアーキテクチャは、電力消費と資源利用の改善の90%以上を35.21 TOPSWで達成している。
論文 参考訳(メタデータ) (2024-09-08T05:10:02Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Reconfigurable co-processor architecture with limited numerical
precision to accelerate deep convolutional neural networks [0.38848561367220275]
畳み込みニューラルネットワーク(CNN)は、視覚システムやロボット工学などのディープラーニングアプリケーションで広く使われている。
本稿では,CNNを高速化するために,モデルに依存しない再構成可能なコプロセッシングアーキテクチャを提案する。
既存の解とは対照的に、算術表現や演算のための限定精度32bit Q-format固定点量子化を導入する。
論文 参考訳(メタデータ) (2021-08-21T09:50:54Z) - Does Form Follow Function? An Empirical Exploration of the Impact of
Deep Neural Network Architecture Design on Hardware-Specific Acceleration [76.35307867016336]
本研究では,深層ニューラルネットワーク設計が推論速度向上の程度に与える影響について検討する。
ハードウェア固有のアクセラレーションを活用することで平均推論速度が380%向上する一方で、マクロアーキテクチャ設計パターンによって推論速度が大幅に変化することを示した。
論文 参考訳(メタデータ) (2021-07-08T23:05:39Z) - NAAS: Neural Accelerator Architecture Search [16.934625310654553]
本稿では,ニューラルネットワークアーキテクチャ,アクセラレーションアーキテクチャ,コンパイラマッピングを全体検索するためのNAAS(Neural Accelerator Architecture Search)を提案する。
データ駆動のアプローチとして、NAASは人間のデザインであるEyerissを4.4倍のEDP削減、ImageNetの精度2.7%改善した。
論文 参考訳(メタデータ) (2021-05-27T15:56:41Z) - Off-Policy Reinforcement Learning for Efficient and Effective GAN
Architecture Search [50.40004966087121]
本稿では,GANアーキテクチャ探索のための強化学習に基づくニューラルアーキテクチャ探索手法を提案する。
鍵となる考え方は、よりスムーズなアーキテクチャサンプリングのためのマルコフ決定プロセス(MDP)として、GANアーキテクチャ探索問題を定式化することである。
我々は,従来の政策によって生成されたサンプルを効率的に活用する,非政治的なGANアーキテクチャ探索アルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-07-17T18:29:17Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - PERMDNN: Efficient Compressed DNN Architecture with Permuted Diagonal
Matrices [35.90103072918056]
ディープニューラルネットワーク(DNN)は、最も重要で人気のある人工知能(AI)技術として登場した。
モデルサイズの成長は、基盤となるコンピューティングプラットフォームにとって重要なエネルギー効率の課題である。
本稿では、ハードウェアフレンドリーな構造化DNNモデルの生成と実行のための新しいアプローチであるPermDNNを提案する。
論文 参考訳(メタデータ) (2020-04-23T02:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。