論文の概要: Graph Convolutional Memory for Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2106.14117v1
- Date: Sun, 27 Jun 2021 00:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 06:19:21.114096
- Title: Graph Convolutional Memory for Deep Reinforcement Learning
- Title(参考訳): 深層強化学習のためのグラフ畳み込み記憶
- Authors: Steven D. Morad, Stephan Liwicki, Amanda Prorok
- Abstract要約: 深部強化学習を用いてPOMDPを解くためのグラフ畳み込みメモリ(GCM)を提案する。
リカレントニューラルネットワーク(RNN)やトランスフォーマーとは異なり、GCMは知識グラフを通じて、ドメイン固有の事前情報をメモリリコールプロセスに埋め込む。
グラフ畳み込みを用いたGCMは、畳み込みニューラルネットワーク(CNN)における画像特徴に類似した階層グラフ特徴を抽出する
- 参考スコア(独自算出の注目度): 8.229775890542967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving partially-observable Markov decision processes (POMDPs) is critical
when applying deep reinforcement learning (DRL) to real-world robotics
problems, where agents have an incomplete view of the world. We present graph
convolutional memory (GCM) for solving POMDPs using deep reinforcement
learning. Unlike recurrent neural networks (RNNs) or transformers, GCM embeds
domain-specific priors into the memory recall process via a knowledge graph. By
encapsulating priors in the graph, GCM adapts to specific tasks but remains
applicable to any DRL task. Using graph convolutions, GCM extracts hierarchical
graph features, analogous to image features in a convolutional neural network
(CNN). We show GCM outperforms long short-term memory (LSTM), gated
transformers for reinforcement learning (GTrXL), and differentiable neural
computers (DNCs) on control, long-term non-sequential recall, and 3D navigation
tasks while using significantly fewer parameters.
- Abstract(参考訳): 部分観測可能なマルコフ決定過程(POMDP)を解くことは、エージェントが世界の不完全な視野を持つ現実世界のロボット問題に深部強化学習(DRL)を適用する際に重要である。
深部強化学習を用いてPOMDPを解くためのグラフ畳み込みメモリ(GCM)を提案する。
リカレントニューラルネットワーク(RNN)やトランスフォーマーとは異なり、GCMは知識グラフを介してドメイン固有の事前情報をメモリリコールプロセスに埋め込む。
グラフに事前情報をカプセル化することにより、GCMは特定のタスクに適応するが、どのDRLタスクにも適用できる。
グラフ畳み込みを用いて、GCMは畳み込みニューラルネットワーク(CNN)の画像特徴に類似した階層グラフ特徴を抽出する。
GCMは長期記憶(LSTM)、強化学習のためのゲートトランスフォーマー(GTrXL)、制御、長期的非逐次リコール、および3次元ナビゲーションタスクにおける微分可能なニューラルネットワーク(DNC)に優れており、パラメータは著しく少ない。
関連論文リスト
- Can Graph Reordering Speed Up Graph Neural Network Training? An Experimental Study [13.354505458409957]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習することができる。
グラフのばらつきは、最適以下のメモリアクセスパターンと長いトレーニング時間をもたらす。
グラフの並べ替えは、CPUおよびGPUベースのトレーニングのトレーニング時間を削減するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-09-17T12:28:02Z) - Enhancing Length Extrapolation in Sequential Models with Pointer-Augmented Neural Memory [66.88278207591294]
本稿では,新しいより長いデータ列に対して,ニューラルネットワークによるシンボル処理の理解と適用を支援するために,Pointer-Augmented Neural Memory (PANM)を提案する。
PANMは、新しい物理アドレスとポインタ操作技術を使用して、人間とコンピュータのシンボル処理能力を模倣する外部のニューラルメモリを統合する。
論文 参考訳(メタデータ) (2024-04-18T03:03:46Z) - Layer-wise training for self-supervised learning on graphs [0.0]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のエンドツーエンドトレーニングは、いくつかのメモリと計算上の課題を示す。
本稿では,GNN層を自己教師型で学習するアルゴリズムであるレイヤワイズ正規化グラフInfomaxを提案する。
論文 参考訳(メタデータ) (2023-09-04T10:23:39Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。