論文の概要: ModGNN: Expert Policy Approximation in Multi-Agent Systems with a
Modular Graph Neural Network Architecture
- arxiv url: http://arxiv.org/abs/2103.13446v1
- Date: Wed, 24 Mar 2021 18:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:21:43.086726
- Title: ModGNN: Expert Policy Approximation in Multi-Agent Systems with a
Modular Graph Neural Network Architecture
- Title(参考訳): ModGNN: Modular Graph Neural Network Architectureを用いたマルチエージェントシステムにおけるエキスパートポリシー近似
- Authors: Ryan Kortvelesy and Amanda Prorok
- Abstract要約: GCNの一般化に役立つ分散型フレームワークであるModGNNを紹介します。
エージェントの数を変えることで、ModGNNのアプリケーションに依存しない実装が一般化する能力を改善することを実証します。
- 参考スコア(独自算出の注目度): 5.8010446129208155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in the multi-agent domain has shown the promise of Graph Neural
Networks (GNNs) to learn complex coordination strategies. However, most current
approaches use minor variants of a Graph Convolutional Network (GCN), which
applies a convolution to the communication graph formed by the multi-agent
system. In this paper, we investigate whether the performance and
generalization of GCNs can be improved upon. We introduce ModGNN, a
decentralized framework which serves as a generalization of GCNs, providing
more flexibility. To test our hypothesis, we evaluate an implementation of
ModGNN against several baselines in the multi-agent flocking problem. We
perform an ablation analysis to show that the most important component of our
framework is one that does not exist in a GCN. By varying the number of agents,
we also demonstrate that an application-agnostic implementation of ModGNN
possesses an improved ability to generalize to new environments.
- Abstract(参考訳): マルチエージェント領域における最近の研究は、複雑なコーディネーション戦略を学ぶためのグラフニューラルネットワーク(GNN)の約束を示している。
しかし、現在のほとんどのアプローチでは、マルチエージェントシステムによって形成された通信グラフに畳み込みを適用したグラフ畳み込みネットワーク(GCN)の小さな変種を用いる。
本稿では,gcnの性能と一般化が向上できるかどうかについて検討する。
我々は、GCNの一般化に役立つ分散フレームワークであるModGNNを導入し、より柔軟性を提供します。
本仮説を検証するために,マルチエージェント・フロッキング問題におけるいくつかのベースラインに対するModGNNの実装を評価した。
我々のフレームワークの最も重要なコンポーネントがgcnに存在しないコンポーネントであることを示すために、アブレーション分析を実施します。
エージェント数を変化させることで、ModGNNのアプリケーションに依存しない実装では、新しい環境に一般化する能力が改善されていることを示す。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
グラフニューラルネットワーク(GNN)は、グラフ畳み込みの連続的な応用により、隣接ノードからの情報を結合する。
ノードレベルとグラフレベルの両方のタスクにおけるGNNの一般化ギャップについて検討する。
トレーニンググラフのノード数によって一般化ギャップが減少することを示す。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Attentional Graph Neural Networks for Robust Massive Network
Localization [20.416879207269446]
グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - Beyond Graph Convolutional Network: An Interpretable
Regularizer-centered Optimization Framework [12.116373546916078]
グラフ畳み込みネットワーク(GCN)は、性能向上と強力な一般化により、広く注目を集めている。
本稿では,ほとんどのGCNを解釈可能な正規化器中心最適化フレームワークを提案する。
提案フレームワークでは,グラフデータからトポロジとセマンティック構造を捉えるために,二重正規化グラフ畳み込みネットワーク(dubed tsGCN)を考案した。
論文 参考訳(メタデータ) (2023-01-11T05:51:33Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Interpreting and Unifying Graph Neural Networks with An Optimization
Framework [47.44773358082203]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ学習に大きな注目を集めている。
本稿では,異なる伝搬機構と統一最適化問題との驚くほどの関連性を確立する。
提案する統一最適化フレームワークは,いくつかの代表的GNN間の共通性を要約し,柔軟に新しいGNNを設計する新たな機会を開く。
論文 参考訳(メタデータ) (2021-01-28T08:06:02Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。