論文の概要: LearningGroup: A Real-Time Sparse Training on FPGA via Learnable Weight
Grouping for Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.16624v1
- Date: Sat, 29 Oct 2022 15:09:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 19:23:28.154766
- Title: LearningGroup: A Real-Time Sparse Training on FPGA via Learnable Weight
Grouping for Multi-Agent Reinforcement Learning
- Title(参考訳): 学習グループ:マルチエージェント強化学習のための学習可能なウェイトグルーピングによるFPGAのリアルタイムスパーストレーニング
- Authors: Je Yang, JaeUk Kim and Joo-Young Kim
- Abstract要約: マルチエージェント強化学習(MARL)は,対話型人工知能システムを構築するための強力な技術である。
本稿では,学習グループというリアルタイムスパース学習促進システムを提案する。
本システムでは,スパースデータ生成のサイクル時間とメモリフットプリントを最大5.72倍,6.81倍まで最小化する。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent reinforcement learning (MARL) is a powerful technology to
construct interactive artificial intelligent systems in various applications
such as multi-robot control and self-driving cars. Unlike supervised model or
single-agent reinforcement learning, which actively exploits network pruning,
it is obscure that how pruning will work in multi-agent reinforcement learning
with its cooperative and interactive characteristics. \par In this paper, we
present a real-time sparse training acceleration system named LearningGroup,
which adopts network pruning on the training of MARL for the first time with an
algorithm/architecture co-design approach. We create sparsity using a weight
grouping algorithm and propose on-chip sparse data encoding loop (OSEL) that
enables fast encoding with efficient implementation. Based on the OSEL's
encoding format, LearningGroup performs efficient weight compression and
computation workload allocation to multiple cores, where each core handles
multiple sparse rows of the weight matrix simultaneously with vector processing
units. As a result, LearningGroup system minimizes the cycle time and memory
footprint for sparse data generation up to 5.72x and 6.81x. Its FPGA
accelerator shows 257.40-3629.48 GFLOPS throughput and 7.10-100.12 GFLOPS/W
energy efficiency for various conditions in MARL, which are 7.13x higher and
12.43x more energy efficient than Nvidia Titan RTX GPU, thanks to the fully
on-chip training and highly optimized dataflow/data format provided by FPGA.
Most importantly, the accelerator shows speedup up to 12.52x for processing
sparse data over the dense case, which is the highest among state-of-the-art
sparse training accelerators.
- Abstract(参考訳): マルチエージェント強化学習(MARL)は、マルチロボット制御や自動運転車などの様々なアプリケーションにおいて、インタラクティブな人工知能システムを構築するための強力な技術である。
ネットワークpruningを積極的に活用する教師付きモデルやシングルエージェント強化学習とは異なり、pruningが協調的かつインタラクティブな特徴を持つマルチエージェント強化学習においてどのように機能するかは不明である。
本稿では,アルゴリズムとアーキテクチャの共同設計手法を用いて marl の学習にネットワークプラニングを適用した,リアルタイムスパーストレーニングアクセラレーションシステム learninggroup を提案する。
我々は,重みグループ化アルゴリズムを用いてスパース性を作成し,効率的な実装で高速エンコーディングを可能にするオンチップスパースデータエンコーディングループ(osel)を提案する。
OSELのエンコーディングフォーマットに基づいて、LearningGroupは複数のコアに効率的な重み圧縮と計算負荷割り当てを行い、各コアはベクトル処理ユニットと同時に重み行列の複数のスパース行を処理する。
その結果、LearningGroupシステムは、スパースデータ生成のサイクル時間とメモリフットプリントを最大5.72倍および6.81倍まで最小化する。
FPGAアクセラレータは257.40-3629.48 GFLOPSスループットと7.10-100.12 GFLOPS/Wエネルギ効率を示しており、これはNvidia Titan RTX GPUより7.13倍高く、12.43倍エネルギー効率が高い。
最も重要な点として、この加速器は密度の高いケース上でスパースデータを処理するための最大12.52倍の速度を示す。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Weight Block Sparsity: Training, Compilation, and AI Engine Accelerators [0.0]
Deep Neural Networks(DNN)が開発、トレーニング、利用され、高度なデバイスと限られたデバイスの両方に負担がかかっている。
私たちのソリューションは、ハードウェアに親しみやすい構造化された空間であるエムの重みブロック間隔を実装することです。
本稿では,Resnet50,Inception V3,VGG16を用いて,AIE2構成セット(AMD Versal FPGA)の正確かつ完全なコード生成による性能評価を行う。
論文 参考訳(メタデータ) (2024-07-12T17:37:49Z) - Harnessing Manycore Processors with Distributed Memory for Accelerated
Training of Sparse and Recurrent Models [43.1773057439246]
現在のAIトレーニングインフラストラクチャは、単一の命令多重データ(SIMD)とシストリック配列アーキテクチャによって支配されている。
分散ローカルメモリを用いた大規模並列多重命令型マルチデータアーキテクチャにおけるスパース・リカレントモデルトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-11-07T23:18:35Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - RedMule: A Mixed-Precision Matrix-Matrix Operation Engine for Flexible
and Energy-Efficient On-Chip Linear Algebra and TinyML Training Acceleration [15.869673535117032]
現在のトレーニングアルゴリズムは、精度とダイナミックレンジの要求を満たすために浮動小数点行列演算に依存している。
RedMulEは、多精度浮動小数点一般行列演算(GEMM-Ops)加速のために考案された、低消費電力の特殊アクセラレータである。
RedMulE は FP16 と FP8 で 58.5 GFLOPS と 117 GFLOPS をそれぞれ達成し、計算要素の配列を99.4% 利用している。
論文 参考訳(メタデータ) (2023-01-10T11:07:16Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - A Deep Learning Inference Scheme Based on Pipelined Matrix
Multiplication Acceleration Design and Non-uniform Quantization [9.454905560571085]
本稿では,パイプライン行列乗算法と非一様量子化法に基づく低消費電力多層パーセプトロン(MLP)加速器を提案する。
その結果,本手法は少ない消費電力で優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-10T17:31:27Z) - Accelerating Distributed K-FAC with Smart Parallelism of Computing and
Communication Tasks [13.552262050816616]
Kronecker-Factored Approximate Curvature (KFAC)は、深層モデルのトレーニングにおいて最も効率的な近似アルゴリズムの1つである。
しかし、KFACでモデルをトレーニングするためにGPUクラスタを活用すると、大規模な計算が発生すると同時に、イテレーション毎に余分な通信が導入される。
そこで我々は,D-KFACを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:01:07Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。