論文の概要: Accelerating Deep Neuroevolution on Distributed FPGAs for Reinforcement
Learning Problems
- arxiv url: http://arxiv.org/abs/2005.04536v1
- Date: Sun, 10 May 2020 00:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:21:20.591536
- Title: Accelerating Deep Neuroevolution on Distributed FPGAs for Reinforcement
Learning Problems
- Title(参考訳): 強化学習問題に対する分散FPGAの深部神経進化の高速化
- Authors: Alexis Asseman, Nicolas Antoine and Ahmet S. Ozcan
- Abstract要約: 分散FPGA上に実装された深部神経進化を用いたAtari 2600のトレーニング時間(毎秒100万フレーム)を報告する。
結果は、IBM Neural Computerにおける最初のアプリケーションデモである。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning augmented by the representational power of deep neural
networks, has shown promising results on high-dimensional problems, such as
game playing and robotic control. However, the sequential nature of these
problems poses a fundamental challenge for computational efficiency. Recently,
alternative approaches such as evolutionary strategies and deep neuroevolution
demonstrated competitive results with faster training time on distributed CPU
cores. Here, we report record training times (running at about 1 million frames
per second) for Atari 2600 games using deep neuroevolution implemented on
distributed FPGAs. Combined hardware implementation of the game console, image
pre-processing and the neural network in an optimized pipeline, multiplied with
the system level parallelism enabled the acceleration. These results are the
first application demonstration on the IBM Neural Computer, which is a custom
designed system that consists of 432 Xilinx FPGAs interconnected in a 3D mesh
network topology. In addition to high performance, experiments also showed
improvement in accuracy for all games compared to the CPU-implementation of the
same algorithm.
- Abstract(参考訳): 深層ニューラルネットワークの表現力によって強化された強化学習は、ゲームプレイやロボット制御といった高次元問題において有望な結果を示している。
しかし、これらの問題の逐次的性質は計算効率にとって根本的な課題となる。
近年、進化戦略や深層神経進化のような代替アプローチは、分散CPUコアでのトレーニング時間を短縮する競争結果を示した。
本稿では,分散FPGA上に実装された深部神経進化を用いたAtari 2600のトレーニング時間(毎秒100万フレーム)を報告する。
ゲームコンソールのハードウェア実装、画像の前処理、ニューラルネットワークを最適化したパイプラインで組み合わせることで、システムレベルの並列処理が可能となった。
これらの結果は、3Dメッシュネットワークトポロジに相互接続された432 Xilinx FPGAからなるカスタム設計システムであるIBM Neural Computerにおける最初のアプリケーションデモである。
ハイパフォーマンスに加えて、実験では、同じアルゴリズムのcpu実装と比較して、すべてのゲームで精度が向上した。
関連論文リスト
- Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - N3H-Core: Neuron-designed Neural Network Accelerator via FPGA-based
Heterogeneous Computing Cores [26.38812379700231]
FPGAを用いたニューラルネットワーク高速化のための異種計算システムを開発した。
提案するアクセラレータは、DSPとLUTをベースとしたGEMM(GEneral Matrix-Multiplication)コンピューティングコアで構成されている。
我々の設計では、最新のMix&Match設計よりも遅延が1.12-1.32x削減され、推論精度が向上した。
論文 参考訳(メタデータ) (2021-12-15T15:12:00Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Overview of FPGA deep learning acceleration based on convolutional
neural network [0.76146285961466]
近年、ディープラーニングはますます成熟し、ディープラーニングの一般的なアルゴリズムとして、畳み込みニューラルネットワークは様々な視覚的タスクで広く使用されています。
本稿は,畳み込みの関連理論とアルゴリズムを主に紹介するレビュー記事である。
畳み込みニューラルネットワークに基づく既存のFPGA技術の応用シナリオをまとめ、主にアクセラレータの応用について紹介します。
論文 参考訳(メタデータ) (2020-12-23T12:44:24Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Benchmarking Deep Spiking Neural Networks on Neuromorphic Hardware [0.0]
我々は、トレーニング済みの非スパイクをスパイクニューラルネットワークに変換する手法を用いて、性能損失を評価し、インジェクション当たりのエネルギを測定する。
変換損失は、通常、デジタル実装では1%以下であり、アナログシステムでは、より少ないエネルギー/推論コストの利点により、適度に高いことが示される。
論文 参考訳(メタデータ) (2020-04-03T16:25:49Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。