論文の概要: GMoPE:A Prompt-Expert Mixture Framework for Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2511.03251v1
- Date: Wed, 05 Nov 2025 07:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.37228
- Title: GMoPE:A Prompt-Expert Mixture Framework for Graph Foundation Models
- Title(参考訳): GMoPE:グラフ基盤モデルのためのPrompt-Expert混合フレームワーク
- Authors: Zhibin Wang, Zhixing Zhang, Shuqi Wang, Xuanting Xie, Zhao Kang,
- Abstract要約: グラフニューラルネットワーク(GNN)はタスク固有のベンチマークで素晴らしいパフォーマンスを示しているが、さまざまなドメインやタスクをまたいで一般化する能力は限定的だ。
GMoPEは,Mixture-of-Experts(MoE)アーキテクチャをグラフの即時学習とシームレスに統合するフレームワークである。
GMoPEは、最先端のベースラインを一貫して上回り、完全なパラメータの微調整に匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 30.023472202549076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated impressive performance on task-specific benchmarks, yet their ability to generalize across diverse domains and tasks remains limited. Existing approaches often struggle with negative transfer, scalability issues, and high adaptation costs. To address these challenges, we propose GMoPE (Graph Mixture of Prompt-Experts), a novel framework that seamlessly integrates the Mixture-of-Experts (MoE) architecture with prompt-based learning for graphs. GMoPE leverages expert-specific prompt vectors and structure-aware MoE routing to enable each expert to specialize in distinct subdomains and dynamically contribute to predictions. To promote diversity and prevent expert collapse, we introduce a soft orthogonality constraint across prompt vectors, encouraging expert specialization and facilitating a more balanced expert utilization. Additionally, we adopt a prompt-only fine-tuning strategy that significantly reduces spatiotemporal complexity during transfer. We validate GMoPE through extensive experiments under various pretraining strategies and multiple downstream tasks. Results show that GMoPE consistently outperforms state-of-the-art baselines and achieves performance comparable to full parameter fine-tuning-while requiring only a fraction of the adaptation overhead. Our work provides a principled and scalable framework for advancing generalizable and efficient graph foundation models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はタスク固有のベンチマークで素晴らしいパフォーマンスを示しているが、さまざまなドメインやタスクをまたいで一般化する能力は限定的だ。
既存のアプローチは、負の転送、スケーラビリティの問題、高い適応コストに悩まされることが多い。
これらの課題に対処するため,我々はGMoPE(Graph Mixture of Prompt-Experts)を提案する。
GMoPEは専門家固有のプロンプトベクトルと構造対応のMoEルーティングを活用して、各専門家が別々のサブドメインを専門にし、予測に動的に貢献できるようにする。
多様性の促進と専門家の崩壊防止を目的として,プロンプトベクトル間のソフトな直交性制約を導入し,専門家の専門化を奨励し,よりバランスの取れた専門家の活用を促進する。
さらに、転送時の時空間的複雑さを著しく低減する、プロンプトのみの微調整戦略を採用する。
我々は、様々な事前学習戦略と複数の下流タスクの下での広範な実験を通して、GMoPEを検証する。
その結果、GMoPEは最先端のベースラインを一貫して上回り、適応オーバーヘッドのごく一部しか必要とせず、完全なパラメータの微調整に匹敵する性能を達成することがわかった。
我々の研究は、一般化可能で効率的なグラフ基盤モデルを進めるための、原則付きかつスケーラブルなフレームワークを提供する。
関連論文リスト
- Adaptive Graph Mixture of Residual Experts: Unsupervised Learning on Diverse Graphs with Heterogeneous Specialization [17.89950704690598]
我々は、グラフ上の不均一なMoEの堅牢で完全に教師なしのトレーニングを可能にする、原則化されたフレームワークであるADaMoREを紹介する。
構造認識型ゲーティングネットワークは、きめ細かいノードルーティングを実行する。
私たちの設計はデータ効率とトレーニングの安定性を改善します。
論文 参考訳(メタデータ) (2025-10-24T07:18:24Z) - One-Prompt Strikes Back: Sparse Mixture of Experts for Prompt-based Continual Learning [52.966712416640085]
本稿では,タスク固有戦略と共有プロンプト戦略の両方の利点を統合する新しいフレームワークであるSMoPEを提案する。
SMoPEはタスク固有のプロンプトメソッドを一貫して上回り、最先端のアプローチと競合する性能を達成する。
論文 参考訳(メタデータ) (2025-09-29T08:54:58Z) - Chimera: Improving Generalist Model with Domain-Specific Experts [32.35451334992535]
ドメイン特化の専門家による既存のLMMの能力を高めるために,スケーラブルで低コストなマルチモーダルパイプラインを導入する。
具体的には、プログレッシブ・トレーニング・ストラテジーを設計し、専門家モデルからの機能をジェネラリストLMMの入力に統合する。
結果として、チャート、テーブル、数学、ドキュメントドメインにまたがる多用途モデルが出来上がります。
論文 参考訳(メタデータ) (2024-12-08T16:10:42Z) - Complexity Experts are Task-Discriminative Learners for Any Image Restoration [80.46313715427928]
複雑性の専門家" - 様々な計算複雑性と受容的なフィールドを持つフレキシブルな専門家ブロックを紹介します。
この選好は、タスク固有の割り当てを効果的に推進し、適切な複雑さを持つ専門家にタスクを割り当てる。
提案したMoCE-IRモデルは最先端の手法より優れており、その効率性と実用性が確認されている。
論文 参考訳(メタデータ) (2024-11-27T15:58:07Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。