論文の概要: SA^2GFM: Enhancing Robust Graph Foundation Models with Structure-Aware Semantic Augmentation
- arxiv url: http://arxiv.org/abs/2512.07857v1
- Date: Wed, 26 Nov 2025 08:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.521867
- Title: SA^2GFM: Enhancing Robust Graph Foundation Models with Structure-Aware Semantic Augmentation
- Title(参考訳): SA^2GFM:構造を考慮した意味拡張によるロバストグラフ基礎モデルの強化
- Authors: Junhua Shi, Qingyun Sun, Haonan Yuan, Xingcheng Fu,
- Abstract要約: ドメイン適応表現を改善する堅牢なグラフ基礎モデル(GFM)フレームワークであるSA2GFMを提案する。
ノードとグラフの分類において,SA2GFMはランダムノイズに対する有効性とロバスト性において,9つの最先端ベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 20.028450229306554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Graph Foundation Models (GFMs) which have made significant progress in various tasks, but their robustness against domain noise, structural perturbations, and adversarial attacks remains underexplored. A key limitation is the insufficient modeling of hierarchical structural semantics, which are crucial for generalization. In this paper, we propose SA^2GFM, a robust GFM framework that improves domain-adaptive representations through Structure-Aware Semantic Augmentation. First, we encode hierarchical structural priors by transforming entropy-based encoding trees into structure-aware textual prompts for feature augmentation. The enhanced inputs are processed by a self-supervised Information Bottleneck mechanism that distills robust, transferable representations via structure-guided compression. To address negative transfer in cross-domain adaptation, we introduce an expert adaptive routing mechanism, combining a mixture-of-experts architecture with a null expert design. For efficient downstream adaptation, we propose a fine-tuning module that optimizes hierarchical structures through joint intra- and inter-community structure learning. Extensive experiments demonstrate that SA^2GFM outperforms 9 state-of-the-art baselines in terms of effectiveness and robustness against random noise and adversarial perturbations for node and graph classification.
- Abstract(参考訳): 各種タスクにおいて大きな進歩を遂げたグラフ基礎モデル (GFM) について述べるが, ドメインノイズ, 構造摂動, 敵の攻撃に対する頑健さはいまだ検討されていない。
鍵となる制限は階層構造的意味論のモデリングが不十分であることであり、これは一般化に不可欠である。
本稿では,SA^2GFMを提案する。SA^2GFMは,構造認識セマンティック拡張によるドメイン適応表現を改善する頑健なGFMフレームワークである。
まず,エントロピーに基づくエンコード木を特徴拡張のための構造対応テキストプロンプトに変換することによって,階層構造をエンコードする。
強化された入力は、構造誘導圧縮により堅牢で伝達可能な表現を蒸留する自己教師型インフォメーション・ボトルネック機構によって処理される。
ドメイン間適応における負の伝達に対処するため,エキスパートアーキテクチャとヌルエキスパート設計を組み合わせた適応型ルーティング機構を提案する。
下流適応を効果的に行うために,コミュニティ内構造学習とコミュニティ間構造学習を併用して階層構造を最適化する微調整モジュールを提案する。
SA^2GFMは、ノードとグラフの分類におけるランダムノイズと逆摂動に対する有効性と頑健性の観点から、9つの最先端ベースラインより優れていることを示す。
関連論文リスト
- TreeFedDG: Alleviating Global Drift in Federated Domain Generalization for Medical Image Segmentation [11.110381445769953]
医用画像のための新しいツリートポロジーフレームワーク、TreeFedDG(FedDG-GD)を提案する。
まず,木構造トポロジに基づく階層的パラメータアグリゲーション手法を設計し,大域的モデル方向のずれを抑制する。
次に,パラメータ差に基づくスタイル混合手法 (FedStyle) を提案する。
第3に、モデル配信中に段階的パーソナライズされた融合戦略を開発し、知識伝達とパーソナライズされた特徴のバランスを確保する。
論文 参考訳(メタデータ) (2025-10-21T03:38:05Z) - ReSSFormer: A Recursive Sparse Structured Transformer for Scalable and Long-Context Reasoning [0.0]
本稿では,ReSSFormerについて述べる。Recursive Sparse Structured Transformerは3つの相補的なイノベーションを統合している。
ReSSFormerは、従来のディープスタックをリカレント推論に置き換え、トークンレベルのスペーサと専門家レベルのスペーサに置き換え、コンテンツから直接潜在トークントポロジをモデル化する。
論文 参考訳(メタデータ) (2025-10-02T02:05:30Z) - Topology-Aware Graph Reinforcement Learning for Dynamic Routing in Cloud Networks [7.718608301354158]
メソッドは状態表現と構造進化のための統一されたフレームワークを構築する。
動的トポロジの下で、決定の不安定性と構造的認識の不十分な課題に取り組むことを目的としている。
提案手法は, 動的・複雑なクラウドネットワークにおいて, 効率的かつロバストなルーティングを実現する。
論文 参考訳(メタデータ) (2025-09-05T09:55:28Z) - Towards Efficient General Feature Prediction in Masked Skeleton Modeling [59.46799426434277]
マスクスケルトンモデリングのための新しい汎用特徴予測フレームワーク(GFP)を提案する。
我々の重要な革新は、局所的な動きパターンからグローバルな意味表現にまたがる、従来の低レベルな再構築を高レベルな特徴予測に置き換えることです。
論文 参考訳(メタデータ) (2025-09-03T18:05:02Z) - Hierarchical Graph Feature Enhancement with Adaptive Frequency Modulation for Visual Recognition [6.580655899524989]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて強力な性能を示している。
構造認識と特徴表現を両立させるため,CNNにグラフベース推論を統合する新しいフレームワークを提案する。
提案したHGFEモジュールは軽量でエンドツーエンドのトレーニングが可能で、標準のCNNバックボーンネットワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-15T14:19:50Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Enhanced Structured State Space Models via Grouped FIR Filtering and Attention Sink Mechanisms [0.6718184400443239]
本稿では,A-乗算を複数のグループに分解することで課題を軽減する高度なアーキテクチャを提案する。
ストリーミング言語モデルで特定される「アテンションシンク」現象にインスパイアされ、モデルの安定性と性能を高めるための同様のメカニズムを組み込んだ。
論文 参考訳(メタデータ) (2024-08-01T02:49:58Z) - Isomorphic Pruning for Vision Models [56.286064975443026]
構造化プルーニングは、冗長なサブ構造を取り除くことによって、ディープニューラルネットワークの計算オーバーヘッドを低減する。
Isomorphic Pruningは、ネットワークアーキテクチャの範囲で有効性を示すシンプルなアプローチである。
論文 参考訳(メタデータ) (2024-07-05T16:14:53Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - DepGraph: Towards Any Structural Pruning [68.40343338847664]
我々は、CNN、RNN、GNN、Transformersのような任意のアーキテクチャの一般的な構造解析について研究する。
本稿では,階層間の依存関係を明示的にモデル化し,包括的にグループ化してプルーニングを行う汎用かつ完全自動な手法であるemphDependency Graph(DepGraph)を提案する。
本研究では,画像用ResNe(X)t,DenseNet,MobileNet,Vision Transformer,グラフ用GAT,3Dポイントクラウド用DGCNN,言語用LSTMなど,さまざまなアーキテクチャやタスクに関する手法を広範囲に評価し,言語用LSTMと並行して示す。
論文 参考訳(メタデータ) (2023-01-30T14:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。