論文の概要: Foresight of Graph Reinforcement Learning Latent Permutations Learnt by
Gumbel Sinkhorn Network
- arxiv url: http://arxiv.org/abs/2110.12144v1
- Date: Sat, 23 Oct 2021 05:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 14:08:51.173840
- Title: Foresight of Graph Reinforcement Learning Latent Permutations Learnt by
Gumbel Sinkhorn Network
- Title(参考訳): Gumbel Sinkhorn Network が学習したグラフ強化学習潜時置換の展望
- Authors: Tianqi Shen, Hong Zhang, Ding Yuan, Jiaping Xiao, Yifan Yang
- Abstract要約: Gumbel Sinkhorn graph attention reinforcement learning, which a graph attention network highly representation the underlying graph topology structure of the multi-agent environment。
本稿では,グラフ強化学習手法がペッティングズーのマルチエージェント環境において,潜時置換学習によって既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 9.316409848022108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vital importance has necessity to be attached to cooperation in multi-agent
environments, as a result of which some reinforcement learning algorithms
combined with graph neural networks have been proposed to understand the mutual
interplay between agents. However, highly complicated and dynamic multi-agent
environments require more ingenious graph neural networks, which can
comprehensively represent not only the graph topology structure but also
evolution process of the structure due to agents emerging, disappearing and
moving. To tackle these difficulties, we propose Gumbel Sinkhorn graph
attention reinforcement learning, where a graph attention network highly
represents the underlying graph topology structure of the multi-agent
environment, and can adapt to the dynamic topology structure of graph better
with the help of Gumbel Sinkhorn network by learning latent permutations.
Empirically, simulation results show how our proposed graph reinforcement
learning methodology outperforms existing methods in the PettingZoo multi-agent
environment by learning latent permutations.
- Abstract(参考訳): エージェント間の相互の相互作用を理解するために,グラフニューラルネットワークと組み合わされた強化学習アルゴリズムが提案されている。
しかし、複雑でダイナミックなマルチエージェント環境は、グラフトポロジー構造だけでなく、エージェントの出現、消失、移動による構造の進化過程を包括的に表すことのできる、より創発的なグラフニューラルネットワークを必要とする。
そこで,本研究では,グラフアテンションネットワークがマルチエージェント環境の基盤となるグラフトポロジ構造を高度に表現し,潜在置換を学習することにより,ガムベルシンクホーンネットワークの助けを借りてグラフの動的トポロジ構造に適応できるガムベルシンクホーングラフアテンション強化学習を提案する。
シミュレーションの結果,提案手法がペッティングズーのマルチエージェント環境における既存手法よりも潜時変分学習の方が優れていることを示す。
関連論文リスト
- Online Learning Of Expanding Graphs [14.952056744888916]
本稿では,信号ストリームからグラフを拡張するためのオンラインネットワーク推論の問題に対処する。
ネットワークに加入したばかりのノードや,それまでのノードに対して,さまざまなタイプの更新を可能にする戦略を導入する。
論文 参考訳(メタデータ) (2024-09-13T09:20:42Z) - Graph Attention Inference of Network Topology in Multi-Agent Systems [0.0]
本研究は,マルチエージェントシステムの将来の状態を予測するためのアテンションメカニズムを活用する,機械学習に基づく新しいソリューションを提案する。
次に、注目値の強さからグラフ構造を推定する。
提案したデータ駆動型グラフアテンション機械学習モデルにより,マルチエージェントシステムにおけるネットワークトポロジを同定できることを示す。
論文 参考訳(メタデータ) (2024-08-27T23:58:51Z) - Topological Neural Networks: Mitigating the Bottlenecks of Graph Neural
Networks via Higher-Order Interactions [1.994307489466967]
この研究は、メッセージパッシングニューラルネットワークにおいて、ネットワークの幅、深さ、グラフトポロジがオーバーカッシング現象に与える影響を明らかにする理論的枠組みから始まる。
この研究は、トポロジカルニューラルネットワークを通して高次相互作用と多関係帰納バイアスへと流れていく。
グラフ注意ネットワークにインスパイアされた2つのトポロジカルアテンションネットワーク(Simplicial and Cell Attention Networks)が提案されている。
論文 参考訳(メタデータ) (2024-02-10T08:26:06Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Ring Reservoir Neural Networks for Graphs [15.07984894938396]
貯留層コンピューティングモデルは、実りあるグラフの埋め込みを開発する上で重要な役割を果たす。
我々の中心となる提案は、リングトポロジーに従うために隠れたニューロンの組織を形成することに基づいている。
グラフ分類タスクの実験結果は、リング・リザーバアーキテクチャが特に効果的なネットワーク構成を可能にしていることを示している。
論文 参考訳(メタデータ) (2020-05-11T17:51:40Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。