論文の概要: Training Diverse Graph Experts for Ensembles: A Systematic Empirical Study
- arxiv url: http://arxiv.org/abs/2510.18370v1
- Date: Tue, 21 Oct 2025 07:40:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.137583
- Title: Training Diverse Graph Experts for Ensembles: A Systematic Empirical Study
- Title(参考訳): アンサンブルのための多言語グラフエキスパートの訓練 : 体系的実証的研究
- Authors: Gangda Deng, Yuxin Yang, Ömer Faruk Akgül, Hanqing Zeng, Yinglong Xia, Rajgopal Kannan, Viktor Prasanna,
- Abstract要約: 本研究は,GNNアンサンブルのためのエキスパートレベルの多様化技術に関する最初の系統的研究である。
14のノード分類ベンチマークで20の多様化戦略を評価した。
総合評価では,各手法を専門家の多様性,相補性,アンサンブル性能の観点から検討した。
- 参考スコア(独自算出の注目度): 15.65200571307458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have become essential tools for learning on relational data, yet the performance of a single GNN is often limited by the heterogeneity present in real-world graphs. Recent advances in Mixture-of-Experts (MoE) frameworks demonstrate that assembling multiple, explicitly diverse GNNs with distinct generalization patterns can significantly improve performance. In this work, we present the first systematic empirical study of expert-level diversification techniques for GNN ensembles. Evaluating 20 diversification strategies -- including random re-initialization, hyperparameter tuning, architectural variation, directionality modeling, and training data partitioning -- across 14 node classification benchmarks, we construct and analyze over 200 ensemble variants. Our comprehensive evaluation examines each technique in terms of expert diversity, complementarity, and ensemble performance. We also uncovers mechanistic insights into training maximally diverse experts. These findings provide actionable guidance for expert training and the design of effective MoE frameworks on graph data. Our code is available at https://github.com/Hydrapse/bench-gnn-diversification.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、リレーショナルデータを学習する上で不可欠なツールとなっているが、実世界のグラフに存在する不均一性によって、単一のGNNの性能が制限されることがしばしばある。
近年のMixture-of-Experts(MoE)フレームワークの進歩は、複数の多種多様なGNNを異なる一般化パターンで組み立てることによって、パフォーマンスが大幅に向上することを示している。
本研究は,GNNアンサンブルのための専門家レベルの多様化手法に関する,最初の系統的研究である。
ランダムな再初期化、ハイパーパラメータチューニング、アーキテクチャのバリエーション、方向性モデリング、トレーニングデータパーティショニングを含む20の多様化戦略を14のノード分類ベンチマークで評価し、200以上のアンサンブル変種を構築し分析する。
総合評価では,各手法を専門家の多様性,相補性,アンサンブル性能の観点から検討した。
また、極端に多様な専門家を訓練するための機械的な洞察を明らかにします。
これらの知見は、専門家のトレーニングとグラフデータに基づく効果的なMoEフレームワークの設計のための実用的なガイダンスを提供する。
私たちのコードはhttps://github.com/Hydrapse/bench-gnn-diversification.comで利用可能です。
関連論文リスト
- Exploring Graph-Transformer Out-of-Distribution Generalization Abilities [2.4063592468412276]
グラフトランスフォーマー(GT)バックボーンは、最近、従来のメッセージパッシングニューラルネットワーク(MPNN)を複数のIDベンチマークで上回っている。
本研究は,グラフニューラルネットワークにおけるアウト・オブ・ディストリビューション(OOD)の一般化の課題に対処する。
我々は、GTsを扱うためにいくつかの主要なドメイン一般化(DG)アルゴリズムを適用し、様々な分散シフトをテストするために設計されたベンチマークでそれらの性能を評価する。
論文 参考訳(メタデータ) (2025-06-25T16:09:24Z) - DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - Enhancing GNNs with Architecture-Agnostic Graph Transformations: A Systematic Analysis [0.4069144210024563]
本研究では,標準データセット間の共通グラフニューラルネットワーク(GNN)アーキテクチャの性能に及ぼす前処理ステップとしての各種グラフ変換の影響について検討する。
以上の結果から,特定の変換,特に集中度を指標とした拡張ノードの特徴は,常に表現性を向上することが明らかとなった。
しかし、グラフ符号化のような手法は表現性を高めつつ、広く使われているピソンパッケージの数値的不正確さを導入しているため、これらの利益はトレードオフをもたらす。
論文 参考訳(メタデータ) (2024-10-11T12:19:17Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - GraphMETRO: Mitigating Complex Graph Distribution Shifts via Mixture of Aligned Experts [75.51612253852002]
GraphMETROは、自然多様性をモデル化し、複雑な分散シフトをキャプチャするグラフニューラルネットワークアーキテクチャである。
GraphMETROはGOODベンチマークから4つのデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-07T20:56:07Z) - G-Mix: A Generalized Mixup Learning Framework Towards Flat Minima [17.473268736086137]
我々は、DNNモデルのトレーニングにMixupとSAMの強みを組み合わせた、Generalized-Mixupと呼ばれる新しい学習フレームワークを提案する。
本稿では2つの新しいアルゴリズムを提案する: バイナリG-Mixと分解G-Mixは、各サンプルのシャープネス感度に基づいてトレーニングデータを2つのサブセットに分割する。
理論的説明と実験結果の両方により、提案したBG-MixアルゴリズムとDG-Mixアルゴリズムは、複数のデータセットやモデルにわたるモデルの一般化をさらに強化することが明らかとなった。
論文 参考訳(メタデータ) (2023-08-07T01:25:10Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Principal Neighbourhood Aggregation for Graph Nets [4.339839287869653]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上の様々な予測タスクに有効なモデルであることが示されている。
表現力に関する最近の研究は同型タスクと可算特徴空間に焦点を当てている。
我々はこの理論フレームワークを拡張し、現実世界の入力領域で定期的に発生する連続的な特徴を含める。
論文 参考訳(メタデータ) (2020-04-12T23:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。