論文の概要: Map-and-Conquer: Energy-Efficient Mapping of Dynamic Neural Nets onto
Heterogeneous MPSoCs
- arxiv url: http://arxiv.org/abs/2302.12926v1
- Date: Fri, 24 Feb 2023 22:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:52:39.017850
- Title: Map-and-Conquer: Energy-Efficient Mapping of Dynamic Neural Nets onto
Heterogeneous MPSoCs
- Title(参考訳): Map-and-Conquer: 動的ニューラルネットワークの異種MPSoCへのエネルギー効率の良いマッピング
- Authors: Halima Bouzidi, Mohanad Odema, Hamza Ouarnoughi, Smail Niar, Mohammad
Abdullah Al Faruque
- Abstract要約: NNをヘテロジニアスMPSoCに効果的にマッピングする新しいフレームワークを提案する。
標準MPSoCプラットフォーム上での実験では,GPUのみのマッピングよりも2.1倍エネルギー効率の高い動的マッピング構成が得られた。
- 参考スコア(独自算出の注目度): 8.29394286023338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous MPSoCs comprise diverse processing units of varying compute
capabilities. To date, the mapping strategies of neural networks (NNs) onto
such systems are yet to exploit the full potential of processing parallelism,
made possible through both the intrinsic NNs' structure and underlying hardware
composition. In this paper, we propose a novel framework to effectively map NNs
onto heterogeneous MPSoCs in a manner that enables them to leverage the
underlying processing concurrency. Specifically, our approach identifies an
optimal partitioning scheme of the NN along its `width' dimension, which
facilitates deployment of concurrent NN blocks onto different hardware
computing units. Additionally, our approach contributes a novel scheme to
deploy partitioned NNs onto the MPSoC as dynamic multi-exit networks for
additional performance gains. Our experiments on a standard MPSoC platform have
yielded dynamic mapping configurations that are 2.1x more energy-efficient than
the GPU-only mapping while incurring 1.7x less latency than DLA-only mapping.
- Abstract(参考訳): 不均一MPSoCは様々な計算能力を持つ多様な処理ユニットから構成される。
これまでのところ、ニューラルネットワーク(NN)のそのようなシステムへのマッピング戦略は、本質的にNNの構造と基盤となるハードウェア構成の両方を通じて実現された並列処理の可能性を十分に活用していない。
本稿では,NNをヘテロジニアスMPSoCに効果的にマッピングする手法を提案する。
具体的には,並列nnブロックの異なるハードウェア計算ユニットへの展開を容易にする「幅」次元に沿って,nnの最適分割スキームを特定する。
さらに,提案手法は,MPSoCに分割NNを動的マルチエグジットネットワークとして展開し,性能向上に寄与する。
標準MPSoCプラットフォーム上での実験では、DLAのみのマッピングよりも1.7倍のレイテンシで、GPUのみのマッピングよりも2.1倍エネルギー効率の高い動的マッピング構成が得られた。
関連論文リスト
- Exploring Quantization and Mapping Synergy in Hardware-Aware Deep Neural Network Accelerators [0.20971479389679332]
CNN推論アクセラレータに実装された畳み込みニューラルネットワーク(CNN)のエネルギー効率とメモリフットプリントは多くの要因に依存する。
実装中にリッチな混合量子化スキームを有効にすることで、以前に隠れていたマッピングの空間を開放できることが示される。
量子化重みとアクティベーションと適切なマッピングを利用するCNNは、精度、エネルギ、メモリ要求間のトレードオフを大幅に改善することができる。
論文 参考訳(メタデータ) (2024-04-08T10:10:30Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Spline-based neural network interatomic potentials: blending classical
and machine learning models [0.0]
本稿では,スプラインベースMEAMポテンシャルの単純さとニューラルネットワークアーキテクチャの柔軟性を融合したMLIPフレームワークを提案する。
我々は,このフレームワークを用いて,古典的IPとMLIPの境界を探索する方法を実証する。
論文 参考訳(メタデータ) (2023-10-04T15:42:26Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Energy Efficient Hardware Acceleration of Neural Networks with
Power-of-Two Quantisation [0.0]
我々は、Zynq UltraScale + MPSoC ZCU104 FPGA上に実装されたPoT重みを持つハードウェアニューラルネットワークアクセラレーターが、均一量子化バージョンよりも少なくとも1.4x$のエネルギー効率を持つことを示す。
論文 参考訳(メタデータ) (2022-09-30T06:33:40Z) - PECAN: A Product-Quantized Content Addressable Memory Network [6.530758154165138]
フィルタリングと線形変換は製品量子化(PQ)によってのみ実現される
これにより、コンテンツアドレス可能なメモリ(CAM)による自然な実装が実現される。
PECAN(Product-Quantized Content Addressable Memory Network)の実現可能性を確認する実験
論文 参考訳(メタデータ) (2022-08-13T08:33:56Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Dynamic Slimmable Network [105.74546828182834]
ダイナミックスリム化システム「ダイナミックスリム化ネットワーク(DS-Net)」を開発。
ds-netは,提案するダブルヘッド動的ゲートによる動的推論機能を備えている。
静的圧縮法と最先端の静的および動的モデル圧縮法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-03-24T15:25:20Z) - Real-time Multi-Task Diffractive Deep Neural Networks via
Hardware-Software Co-design [1.6066483376871004]
本研究は,d$2$nnsでロバストかつノイズ耐性のあるマルチタスク学習を実現する,新しいハードウェアソフトウェア共同設計手法を提案する。
私たちの実験結果は、汎用性とハードウェア効率の大幅な改善を示し、提案されたマルチタスクD$2$NNアーキテクチャの堅牢性を実証します。
論文 参考訳(メタデータ) (2020-12-16T12:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。