論文の概要: Generalize across Homophily and Heterophily: Hybrid Spectral Graph Pre-Training and Prompt Tuning
- arxiv url: http://arxiv.org/abs/2508.11328v2
- Date: Mon, 18 Aug 2025 03:08:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 12:43:44.928932
- Title: Generalize across Homophily and Heterophily: Hybrid Spectral Graph Pre-Training and Prompt Tuning
- Title(参考訳): ホモフィリーとヘテロフィリーをまたいだ一般化:ハイブリッドスペクトルグラフ事前学習とプロンプトチューニング
- Authors: Haitong Luo, Suhang Wang, Weiyao Zhang, Ruiqi Meng, Xuying Meng, Yujun Zhang,
- Abstract要約: 既存の方法は、様々なホモフィリーを持つ実世界のグラフにおける多様なスペクトル分布を処理できない。
本稿では,事前学習と即時学習の両方においてスペクトルアライメントを保証する新しいフレームワークを提案する。
本実験は,帰納的学習と帰納的学習の両方で有効性を検証する。
- 参考スコア(独自算出の注目度): 32.2698194084332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph ``pre-training and prompt-tuning'' aligns downstream tasks with pre-trained objectives to enable efficient knowledge transfer under limited supervision. However, existing methods rely on homophily-based low-frequency knowledge, failing to handle diverse spectral distributions in real-world graphs with varying homophily. Our theoretical analysis reveals a spectral specificity principle: optimal knowledge transfer requires alignment between pre-trained spectral filters and the intrinsic spectrum of downstream graphs. Under limited supervision, large spectral gaps between pre-training and downstream tasks impede effective adaptation. To bridge this gap, we propose the HS-GPPT model, a novel framework that ensures spectral alignment throughout both pre-training and prompt-tuning. We utilize a hybrid spectral filter backbone and local-global contrastive learning to acquire abundant spectral knowledge. Then we design prompt graphs to align the spectral distribution with pretexts, facilitating spectral knowledge transfer across homophily and heterophily. Extensive experiments validate the effectiveness under both transductive and inductive learning settings. Our code is available at https://anonymous.4open.science/r/HS-GPPT-62D2/.
- Abstract(参考訳): グラフ ``pre-training and prompt-tuning'' は、限られた監督下で効率的な知識伝達を可能にするために、下流タスクを事前訓練された目的と整合させる。
しかし、既存の手法はホモフィリーに基づく低周波知識に依存しており、様々なホモフィリーを持つ実世界のグラフにおける多様なスペクトル分布を扱えない。
最適知識伝達は、事前訓練されたスペクトルフィルタと下流グラフの固有スペクトルのアライメントを必要とする。
限られた監督の下では、事前訓練と下流タスクの間の大きなスペクトルギャップは効果的な適応を妨げる。
このギャップを埋めるために,プリトレーニングとプロンプトチューニングの両方においてスペクトルアライメントを保証する新しいフレームワークであるHS-GPPTモデルを提案する。
我々は、スペクトルの豊富な知識を得るために、ハイブリッドスペクトルフィルタのバックボーンとローカル・グローバルコントラスト学習を利用する。
次に、スペクトル分布を前文と整合させるプロンプトグラフを設計し、ホモフィリーとヘテロフィリーのスペクトル知識伝達を容易にする。
広範囲な実験により、帰納的および帰納的両方の学習条件下での有効性が検証された。
私たちのコードはhttps://anonymous.4open.science/r/HS-GPPT-62D2/で利用可能です。
関連論文リスト
- Advection-Diffusion on Graphs: A Bakry-Emery Laplacian for Spectral Graph Neural Networks [2.6124895681424323]
グラフニューラルネットワーク(GNN)は、過度なスムーシングやオーバーシャッシングによって、遠方からの情報伝達に苦慮することが多い。
学習可能なノードワイズポテンシャルを通じて拡散と対流を統合したBakry-Emery graph Laplacianを導入する。
我々は、ポテンシャルとチェビシェフフィルタを共同で学習するスペクトルアーキテクチャであるmu-ChebNetを開発した。
論文 参考訳(メタデータ) (2026-02-20T11:01:12Z) - Spectral Gating Networks [65.9496901693099]
我々は、フィードフォワードネットワークに周波数リッチな表現性を導入するために、スペクトルゲーティングネットワーク(SGN)を導入する。
SGNは、標準活性化経路をコンパクトなスペクトル経路と学習可能なゲートで拡張し、安定したベース動作からモデルを開始することができる。
計算予算に匹敵する精度と効率のトレードオフを継続的に改善する。
論文 参考訳(メタデータ) (2026-02-07T20:00:49Z) - MEPT: Mixture of Expert Prompt Tuning as a Manifold Mapper [75.6582687942241]
本稿では,Mixture of Expert Prompt Tuning (MEPT) を効果的かつ効率的な多様体マッピングフレームワークとして提案する。
MEPTは複数のプロンプト専門家を統合し、多様な非定常データ分布を適応的に学習する。
経験的評価により、MEPTはSuperGLUE上でいくつかの最先端パラメータの効率的なベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2025-08-31T21:19:25Z) - SpectrumFM: Redefining Spectrum Cognition via Foundation Modeling [65.65474629224558]
本稿ではスペクトル認識のための新しいパラダイムを提供するスペクトルFMと呼ばれるスペクトル基盤モデルを提案する。
畳み込みニューラルネットワークを利用した革新的なスペクトルエンコーダを提案し、スペクトルデータにおける微細な局所信号構造と高レベルのグローバルな依存関係の両方を効果的に捕捉する。
2つの新しい自己教師型学習タスク、すなわちマスク付き再構成と次のスロット信号予測が、SpectrumFMの事前学習のために開発され、モデルがリッチで伝達可能な表現を学習できるようにする。
論文 参考訳(メタデータ) (2025-08-02T14:40:50Z) - Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection [59.042018542376596]
グラフ異常検出(GAD)は近年注目度が高まりつつあるが、2つの重要な要因があるため、依然として困難である。
Anomaly-Aware Pre-Training and Fine-Tuning (APF)は、GADの課題を軽減するためのフレームワークである。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-04-19T09:57:35Z) - Homophily Heterogeneity Matters in Graph Federated Learning: A Spectrum Sharing and Complementing Perspective [3.1700915949553843]
我々は、スペクトルグラフニューラルネットワーク(GNN)を導入し、グラフスペクトル特性(FedGSP)をマイニングする新しいフェデレーション学習法を提案する。
一方、提案したFedGSPでは、クライアントが一般的なスペクトル特性を共有できるため、すべてのクライアントがコラボレーションを通じて利益を得ることができる。
一方、我々の理論的な知見に触発されて、提案したFedGSPは、クライアントが欠落するスペクトル特性を取得することで、非ジェネリックスペクトル特性を補完することを可能にする。
論文 参考訳(メタデータ) (2025-02-19T13:58:08Z) - Holistic Physics Solver: Learning PDEs in a Unified Spectral-Physical Space [54.13671100638092]
Holistic Physics Mixer (HPM) は、スペクトルと物理情報を統一された空間に統合するためのフレームワークである。
我々はHPMが精度と計算効率の両面で最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - Spectral Graph Reasoning Network for Hyperspectral Image Classification [0.43512163406551996]
畳み込みニューラルネットワーク(CNN)は、ハイパースペクトル画像(HSI)分類において顕著な性能を達成した。
本稿では、2つの重要なモジュールからなるスペクトルグラフ推論ネットワーク(SGR)学習フレームワークを提案する。
2つのHSIデータセットの実験により、提案したアーキテクチャが分類精度を大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2024-07-02T20:29:23Z) - Shape-aware Graph Spectral Learning [36.63516222161871]
スペクトルグラフニューラルネットワーク(GNN)は、メッセージパッシングGNNの限界を超える能力に注目されている。
いくつかの研究は、好ましいグラフ周波数がグラフホモフィリーレベルと関連していることを実証的に示している。
このグラフ周波数とホモフィリー・ヘテロフィリーグラフの関係は、既存のスペクトルGNNにおいて体系的に解析され検討されていない。
我々は、任意のスペクトルフィルタを学習し、対応するホモフィリーレベルの所望の形状に関する事前知識を組み込むことができるニュートン補間に基づくスペクトルフィルタの形状認識正則化を提案する。
論文 参考訳(メタデータ) (2023-10-16T04:57:30Z) - HoloNets: Spectral Convolutions do extend to Directed Graphs [59.851175771106625]
従来の知恵は、スペクトル畳み込みネットワークは無向グラフ上にしか展開できないと規定している。
ここでは、このグラフフーリエ変換への伝統的な依存が超フルであることを示す。
本稿では,新たに開発されたフィルタの周波数応答解釈を行い,フィルタ表現に使用するベースの影響を調査し,ネットワークを基盤とする特性演算子との相互作用について議論する。
論文 参考訳(メタデータ) (2023-10-03T17:42:09Z) - Specformer: Spectral Graph Neural Networks Meet Transformers [51.644312964537356]
スペクトルグラフニューラルネットワーク(GNN)は、スペクトル領域グラフ畳み込みを通じてグラフ表現を学習する。
本稿では、全ての固有値の集合を効果的に符号化し、スペクトル領域で自己アテンションを行うSpecformerを紹介する。
複数のSpecformerレイヤを積み重ねることで、強力なスペクトルGNNを構築することができる。
論文 参考訳(メタデータ) (2023-03-02T07:36:23Z) - Spectrum-BERT: Pre-training of Deep Bidirectional Transformers for
Spectral Classification of Chinese Liquors [0.0]
本稿では,中国酒のスペクトル分類のための双方向トランスフォーマーの事前学習手法を提案し,これをSpectrum-BERTと略した。
我々はNext Curve Prediction (NCP) と Masked Curve Model (MCM) の2つの事前学習タスクを精巧に設計し、未ラベルのサンプルを効果的に活用できるようにした。
比較実験では、提案したSpectrum-BERTは、複数のメトリクスでベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-10-22T13:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。