論文の概要: Reinforcement Learning Approach for Mapping Applications to
Dataflow-Based Coarse-Grained Reconfigurable Array
- arxiv url: http://arxiv.org/abs/2205.13675v1
- Date: Thu, 26 May 2022 23:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 13:27:57.077475
- Title: Reinforcement Learning Approach for Mapping Applications to
Dataflow-Based Coarse-Grained Reconfigurable Array
- Title(参考訳): データフローに基づく粗粒リコンフィギャラブルアレーへのアプリケーションマッピングのための強化学習アプローチ
- Authors: Andre Xian Ming Chang, Parth Khopkar, Bashar Romanous, Abhishek
Chaurasia, Patrick Estep, Skyler Windh, Doug Vanesko, Sheik Dawood Beer
Mohideen, Eugenio Culurciello
- Abstract要約: Streaming Engine (SE) は、プログラムの柔軟性と高性能なエネルギー効率を提供する粗い粒度再構成可能なアレーである。
各ノードは、プログラムの正しい実行を保証するために、SE内の正しいスロットと配列にマッピングされる必要がある。
本稿では,GGA(Global Graph Attention)モジュールを用いた強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.7754931304892416
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Streaming Engine (SE) is a Coarse-Grained Reconfigurable Array which
provides programming flexibility and high-performance with energy efficiency.
An application program to be executed on the SE is represented as a combination
of Synchronous Data Flow (SDF) graphs, where every instruction is represented
as a node. Each node needs to be mapped to the right slot and array in the SE
to ensure the correct execution of the program. This creates an optimization
problem with a vast and sparse search space for which finding a mapping
manually is impractical because it requires expertise and knowledge of the SE
micro-architecture. In this work we propose a Reinforcement Learning framework
with Global Graph Attention (GGA) module and output masking of invalid
placements to find and optimize instruction schedules. We use Proximal Policy
Optimization in order to train a model which places operations into the SE
tiles based on a reward function that models the SE device and its constraints.
The GGA module consists of a graph neural network and an attention module. The
graph neural network creates embeddings of the SDFs and the attention block is
used to model sequential operation placement. We show results on how certain
workloads are mapped to the SE and the factors affecting mapping quality. We
find that the addition of GGA, on average, finds 10% better instruction
schedules in terms of total clock cycles taken and masking improves reward
obtained by 20%.
- Abstract(参考訳): Streaming Engine (SE) は、プログラムの柔軟性と高性能なエネルギー効率を提供する粗い粒度再構成可能なアレーである。
SE上で実行されるアプリケーションプログラムは、同期データフロー(SDF)グラフの組み合わせとして表現され、すべての命令はノードとして表現される。
各ノードは、プログラムの正しい実行を保証するために、SE内の正しいスロットと配列にマッピングされる必要がある。
これは、SEマイクロアーキテクチャの専門知識と知識を必要とするため、手動でマッピングを見つけることのできない、広範囲でスパースな検索空間を持つ最適化問題を生み出す。
本稿では,グローバルグラフアテンション(gga)モジュールと不正配置のマスキングを用いた強化学習フレームワークを提案する。
我々は、SEデバイスとその制約をモデル化する報酬関数に基づいて、SEタイルに操作を配置するモデルを訓練するために、近似ポリシー最適化を使用する。
GGAモジュールはグラフニューラルネットワークとアテンションモジュールで構成される。
グラフニューラルネットワークはsdfsの埋め込みを生成し、アテンションブロックはシーケンシャルな操作配置のモデル化に使用される。
特定のワークロードがSEにどのようにマッピングされるか、およびマッピング品質に影響する要因について、その結果を示す。
平均してGGAの追加はクロックサイクルの総数で10%向上し、マスキングによって得られる報酬が20%向上することがわかった。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Arch-Graph: Acyclic Architecture Relation Predictor for
Task-Transferable Neural Architecture Search [96.31315520244605]
Arch-Graphはタスク固有の最適アーキテクチャを予測するトランスファー可能なNASメソッドである。
Arch-Graphの転送性と,多数のタスクにわたる高いサンプル効率を示す。
わずか50モデルの予算の下で、2つの検索スペースで平均して0.16%と0.29%のアーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2022-04-12T16:46:06Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Ramanujan Bipartite Graph Products for Efficient Block Sparse Neural
Networks [2.4235475271758076]
本稿では,グラフ積の理論を用いて,構造化マルチレベルブロックスパースニューラルネットワークを生成するフレームワークを提案する。
ラマヌジャングラフの積も提案するが、これは与えられた範囲で最高の接続性を与える。
我々は,VGG19とWideResnet-40-4ネットワークを用いて,CIFARデータセット上の画像分類タスクを実験することで,我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2020-06-24T05:08:17Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。