論文の概要: Self-Adaptive Graph Mixture of Models
- arxiv url: http://arxiv.org/abs/2511.13062v1
- Date: Mon, 17 Nov 2025 07:11:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.883111
- Title: Self-Adaptive Graph Mixture of Models
- Title(参考訳): 自己適応型グラフ混合モデル
- Authors: Mohit Meena, Yash Punjabi, Abhishek A, Vishal Sharma, Mahesh Chandran,
- Abstract要約: Self-Adaptive Graph Mixture of Models (SAGMM)は、最も適切なGNNモデルを自動的に選択して組み合わせることを学ぶモジュール式で実用的なフレームワークである。
我々は、ノード分類、グラフ分類、回帰、リンク予測タスクを含む16のベンチマークデータセット上でSAGMMを評価する。
- 参考スコア(独自算出の注目度): 4.3009319001455975
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful tools for learning over graph-structured data, yet recent studies have shown that their performance gains are beginning to plateau. In many cases, well-established models such as GCN and GAT, when appropriately tuned, can match or even exceed the performance of more complex, state-of-the-art architectures. This trend highlights a key limitation in the current landscape: the difficulty of selecting the most suitable model for a given graph task or dataset. To address this, we propose Self-Adaptive Graph Mixture of Models (SAGMM), a modular and practical framework that learns to automatically select and combine the most appropriate GNN models from a diverse pool of architectures. Unlike prior mixture-of-experts approaches that rely on variations of a single base model, SAGMM leverages architectural diversity and a topology-aware attention gating mechanism to adaptively assign experts to each node based on the structure of the input graph. To improve efficiency, SAGMM includes a pruning mechanism that reduces the number of active experts during training and inference without compromising performance. We also explore a training-efficient variant in which expert models are pretrained and frozen, and only the gating and task-specific layers are trained. We evaluate SAGMM on 16 benchmark datasets covering node classification, graph classification, regression, and link prediction tasks, and demonstrate that it consistently outperforms or matches leading GNN baselines and prior mixture-based methods, offering a robust and adaptive solution for real-world graph learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するための強力なツールとして登場したが、最近の研究では、そのパフォーマンス向上が高まろうとしていることが示されている。
多くの場合、GCNやGATのような確立されたモデルが適切に調整されると、より複雑で最先端のアーキテクチャの性能にマッチしたり、超えたりすることができる。
この傾向は、現在の状況における重要な制限を強調している: 与えられたグラフタスクやデータセットに最も適したモデルを選択するのが困難である。
そこで本研究では,多様なアーキテクチャのプールから,最も適切なGNNモデルを自動的に選択,組み合わせることを学ぶモジュール式で実用的なフレームワークである,自己適応グラフ混合モデル(SAGMM)を提案する。
SAGMMは、単一ベースモデルのバリエーションに依存した従来のミックス・オブ・エキスパートアプローチとは異なり、アーキテクチャの多様性とトポロジを意識したアテンションゲーティング機構を利用して、入力グラフの構造に基づいて各ノードに専門家を適応的に割り当てる。
効率を向上させるため、SAGMMには、トレーニングや推論において、パフォーマンスを損なうことなく、アクティブな専門家の数を削減できるプルーニング機構が含まれている。
また、専門家モデルを事前訓練し凍結し、ゲーティング層とタスク固有の層のみをトレーニングする訓練効率の亜種についても検討する。
我々は、ノード分類、グラフ分類、回帰、リンク予測タスクをカバーする16のベンチマークデータセット上でSAGMMを評価し、GNNベースラインと先行混合方式を一貫して上回ったり、マッチさせたりすることを実証し、実世界のグラフ学習に堅牢で適応的なソリューションを提供する。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Beyond Model Base Selection: Weaving Knowledge to Master Fine-grained Neural Network Design [20.31388126105889]
M-DESIGN(M-DESIGN)は、ニューラルネットワークの洗練を習得するためのモデル知識ベース(MKB)パイプラインである。
まず,タスクメタデータに対する適応的なクエリ問題としてモデル修正を再構成する知識織りエンジンを提案する。
ユーザのタスククエリが与えられた場合、M-DESIGNは、グラフ関係の知識スキーマを利用して、候補モデルをすばやくマッチングし、反復的に洗練する。
論文 参考訳(メタデータ) (2025-07-21T07:49:19Z) - Graph Data Selection for Domain Adaptation: A Model-Free Approach [54.27731120381295]
グラフドメイン適応(GDA)は、グラフ機械学習の基本的なタスクである。
本稿では,対象ドメインの分類タスクに対して,ソースドメインから最高のトレーニングデータを選択する新しいモデルフリーフレームワークであるGRADATEを提案する。
GRADATEは既存の選択法よりも優れており、トレーニングデータが少なく、市販のGDA法を向上する。
論文 参考訳(メタデータ) (2025-05-22T21:18:39Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Deepened Graph Auto-Encoders Help Stabilize and Enhance Link Prediction [11.927046591097623]
リンク予測は、浅層グラフオートエンコーダ(GAE)アーキテクチャの1層または2層に基づく現在の最先端モデルを用いて、比較的未研究のグラフ学習タスクである。
本論文では,浅いGAEと変動GAEしか使用できないリンク予測の現在の手法の限界に対処することに焦点をあてる。
提案手法はGAEのアーキテクチャに標準オートエンコーダ(AE)を革新的に組み込んでおり、標準AEは隣接情報とノード機能をシームレスに統合することで必要不可欠な低次元表現を学習する。
論文 参考訳(メタデータ) (2021-03-21T14:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。