論文の概要: PEnGUiN: Partially Equivariant Graph NeUral Networks for Sample Efficient MARL
- arxiv url: http://arxiv.org/abs/2503.15615v1
- Date: Wed, 19 Mar 2025 18:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:06.919423
- Title: PEnGUiN: Partially Equivariant Graph NeUral Networks for Sample Efficient MARL
- Title(参考訳): PEnGUiN: サンプル効率MARLのための部分等変グラフネウラルネットワーク
- Authors: Joshua McClellan, Greyson Brothers, Furong Huang, Pratap Tokekar,
- Abstract要約: 本稿では,これらの課題に対処するための新しいアーキテクチャであるTextitPartially Equivariant Graph NeUral Networks (PEnGUiN)を紹介する。
我々は,PEnGUiNが完全同変(EGNN)と非同変(GNN)の両方を統一フレームワーク内で学習可能であることを理論的に実証する。
PEnGUiN は非対称環境において,EGNN と標準 GNN の両方に優れることを示した。
- 参考スコア(独自算出の注目度): 35.649751253539534
- License:
- Abstract: Equivariant Graph Neural Networks (EGNNs) have emerged as a promising approach in Multi-Agent Reinforcement Learning (MARL), leveraging symmetry guarantees to greatly improve sample efficiency and generalization. However, real-world environments often exhibit inherent asymmetries arising from factors such as external forces, measurement inaccuracies, or intrinsic system biases. This paper introduces \textit{Partially Equivariant Graph NeUral Networks (PEnGUiN)}, a novel architecture specifically designed to address these challenges. We formally identify and categorize various types of partial equivariance relevant to MARL, including subgroup equivariance, feature-wise equivariance, regional equivariance, and approximate equivariance. We theoretically demonstrate that PEnGUiN is capable of learning both fully equivariant (EGNN) and non-equivariant (GNN) representations within a unified framework. Through extensive experiments on a range of MARL problems incorporating various asymmetries, we empirically validate the efficacy of PEnGUiN. Our results consistently demonstrate that PEnGUiN outperforms both EGNNs and standard GNNs in asymmetric environments, highlighting their potential to improve the robustness and applicability of graph-based MARL algorithms in real-world scenarios.
- Abstract(参考訳): Equivariant Graph Neural Networks (EGNN) はMARL(Multi-Agent Reinforcement Learning)において有望なアプローチとして出現し、対称性保証を活用してサンプル効率と一般化を大幅に改善している。
しかしながら、現実世界の環境は、外部の力、測定の不正確さ、または本質的なシステムのバイアスなどの要因から生じる固有の非対称性を示すことが多い。
本稿では,これらの課題に対処するために設計された新しいアーキテクチャである<textit{Partially Equivariant Graph NeUral Networks (PEnGUiN)}を紹介する。
我々は、MARLに関連する様々な種類の部分同値を正式に識別し、分類する。
我々は,PEnGUiNが完全同変(EGNN)と非同変(GNN)の両方を統一フレームワーク内で学習可能であることを理論的に実証する。
PEnGUiNの有効性を実証的に検証した。
PEnGUiNは非対称環境においてEGNNと標準GNNの両方より優れており、実世界のシナリオにおけるグラフベースのMARLアルゴリズムの堅牢性と適用性を向上させる可能性を強調している。
関連論文リスト
- Boosting Sample Efficiency and Generalization in Multi-agent Reinforcement Learning via Equivariance [34.322201578399394]
MARL(Multi-Agent Reinforcement Learning)は、サンプルの非効率性と一般化の欠如に苦慮する。
探索型等変グラフニューラルネットワーク(E2GN2)を提案する。
E2GN2は, 試料効率, 最終報酬収束率, 標準GNNよりも2x-5倍向上したことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:25:37Z) - Variational Partial Group Convolutions for Input-Aware Partial Equivariance of Rotations and Color-Shifts [21.397064770689795]
グループ同変CNN(G-CNN)は、階層的特徴を同変的に捉える能力から、様々なタスクにおいて有望な有効性を示している。
本稿では,各データインスタンスに特有の部分的等値の変動レベルを捉えるための新しいアプローチとして,変分部分G-CNN(VP G-CNN)を提案する。
本稿では,M67-180,CIFAR10,ColorMNIST,Flowers102など,おもちゃと現実世界の両方のデータセットに対するVP G-CNNの有効性を示す。
論文 参考訳(メタデータ) (2024-07-05T05:52:51Z) - Relaxing Continuous Constraints of Equivariant Graph Neural Networks for Physical Dynamics Learning [39.25135680793105]
離散同変グラフニューラルネットワーク(DEGNN)を提案する。
具体的には、幾何学的特徴を置換不変な埋め込みに変換することによって、このような離散同変メッセージパッシングを構築することができることを示す。
DEGNNはデータ効率が良く、少ないデータで学習でき、観測不能な向きなどのシナリオをまたいで一般化できることを示す。
論文 参考訳(メタデータ) (2024-06-24T03:37:51Z) - A Probabilistic Approach to Learning the Degree of Equivariance in Steerable CNNs [5.141137421503899]
ステアブル畳み込みニューラルネットワーク(SCNN)は、幾何学的対称性をモデル化することによってタスク性能を向上させる。
しかし、未知あるいは様々な対称性は、過剰に制約された重量と性能を低下させる可能性がある。
本稿では,SCNNの等価度を学習するための確率的手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T10:45:19Z) - Graph Invariant Learning with Subgraph Co-mixup for Out-Of-Distribution
Generalization [51.913685334368104]
本稿では,変分パターンと変分パターンの混合戦略に基づく新しいグラフ不変学習手法を提案する。
本手法は, 各種分布シフト下での最先端性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-18T07:26:56Z) - Distribution-Informed Adaptation for kNN Graph Construction [11.63039933401604]
本稿では,適応kNNと分散対応グラフの構成を組み合わせた分散インフォームド適応kNNグラフ(DaNNG)を提案する。
DaNNGはあいまいなサンプルの性能を大幅に改善し、全体的な精度と一般化能力を向上させる。
論文 参考訳(メタデータ) (2023-08-04T16:14:43Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Equivariant Neural Network for Factor Graphs [83.26543234955855]
因子同変ニューラルネットワーク(FE-NBP)と因子同変グラフニューラルネットワーク(FE-GNN)の2つの推論モデルを提案する。
FE-NBPは小さなデータセットで最先端のパフォーマンスを達成する一方、FE-GNNは大規模なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-09-29T06:54:04Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。