論文の概要: USBD: Universal Structural Basis Distillation for Source-Free Graph Domain Adaptation
- arxiv url: http://arxiv.org/abs/2602.08431v1
- Date: Mon, 09 Feb 2026 09:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.152214
- Title: USBD: Universal Structural Basis Distillation for Source-Free Graph Domain Adaptation
- Title(参考訳): USBD:ソースフリーグラフドメイン適応のためのユニバーサル構造基底蒸留
- Authors: Yingxu Wang, Kunyu Zhang, Mengzhu Wang, Siyang Gao, Nan Yin,
- Abstract要約: SF-GDAは、グラフデータセット間でのプライバシ保護の知識伝達において重要である。
本稿では, バイアスモデルに適応するパラダイムを, SF-GDAの普遍的構造基底学習にシフトさせるフレームワークであるユニバーサル構造基底蒸留を提案する。
- 参考スコア(独自算出の注目度): 28.47018372381707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SF-GDA is pivotal for privacy-preserving knowledge transfer across graph datasets. Although recent works incorporate structural information, they implicitly condition adaptation on the smoothness priors of sourcetrained GNNs, thereby limiting their generalization to structurally distinct targets. This dependency becomes a critical bottleneck under significant topological shifts, where the source model misinterprets distinct topological patterns unseen in the source domain as noise, rendering pseudo-label-based adaptation unreliable. To overcome this limitation, we propose the Universal Structural Basis Distillation, a framework that shifts the paradigm from adapting a biased model to learning a universal structural basis for SF-GDA. Instead of adapting a biased source model to a specific target, our core idea is to construct a structure-agnostic basis that proactively covers the full spectrum of potential topological patterns. Specifically, USBD employs a bi-level optimization framework to distill the source dataset into a compact structural basis. By enforcing the prototypes to span the full Dirichlet energy spectrum, the learned basis explicitly captures diverse topological motifs, ranging from low-frequency clusters to high-frequency chains, beyond those present in the source. This ensures that the learned basis creates a comprehensive structural covering capable of handling targets with disparate structures. For inference, we introduce a spectral-aware ensemble mechanism that dynamically activates the optimal prototype combination based on the spectral fingerprint of the target graph. Extensive experiments on benchmarks demonstrate that USBD significantly outperforms state-of-the-art methods, particularly in scenarios with severe structural shifts, while achieving superior computational efficiency by decoupling the adaptation cost from the target data scale.
- Abstract(参考訳): SF-GDAは、グラフデータセット間でのプライバシ保護の知識伝達において重要である。
最近の研究には構造情報が含まれているが、ソーストレーニングされたGNNの滑らかさに暗黙的に適応することで、その一般化を構造的に異なるターゲットに制限している。
この依存性は、ソースモデルがソースドメインで見えない異なるトポロジ的パターンをノイズと誤解釈し、擬似ラベルベースの適応を信頼できないという重要なトポロジ的シフトの下で重要なボトルネックとなる。
この制限を克服するために,このパラダイムをバイアスモデルに適応させることから,SF-GDAの普遍構造基底学習に移行する枠組みであるユニバーサル構造基底蒸留(Universal Structure Basis Distillation)を提案する。
偏りのあるソースモデルを特定のターゲットに適応させる代わりに、私たちの中核となる考え方は、潜在的トポロジカルパターンの全スペクトルを積極的にカバーする構造に依存しない基盤を構築することである。
具体的には、USBDはソースデータセットをコンパクトな構造ベースに蒸留するために、双方向の最適化フレームワークを使用している。
プロトタイプを全ディリクレエネルギースペクトルの範囲に広げることによって、学習基盤は、低周波クラスターから高周波連鎖まで、ソースに存在するもの以外の様々なトポロジカルなモチーフを明示的に捉えている。
これにより、学習基盤は、異なる構造を持つターゲットを扱うことができる包括的な構造被覆を作成することができる。
推定のために,ターゲットグラフのスペクトル指紋に基づいて,最適なプロトタイプの組み合わせを動的に活性化するスペクトル認識アンサンブル機構を導入する。
ベンチマークによる大規模な実験により、USBDは最先端の手法、特に厳しい構造変化のシナリオでは大幅に性能が向上し、ターゲットデータスケールから適応コストを分離することで計算効率が向上することが示された。
関連論文リスト
- SA^2GFM: Enhancing Robust Graph Foundation Models with Structure-Aware Semantic Augmentation [20.028450229306554]
ドメイン適応表現を改善する堅牢なグラフ基礎モデル(GFM)フレームワークであるSA2GFMを提案する。
ノードとグラフの分類において,SA2GFMはランダムノイズに対する有効性とロバスト性において,9つの最先端ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-11-26T08:26:01Z) - HiGFA: Hierarchical Guidance for Fine-grained Data Augmentation with Diffusion Models [82.10385962490051]
生成拡散モデルは、データ拡張の約束を示す。
きめ細かいタスクにそれらを適用することは、重大な課題である。
HiGFAは階層的な信頼性駆動型オーケストレーションであり、多様なが忠実な合成画像を生成する。
論文 参考訳(メタデータ) (2025-11-16T10:46:16Z) - Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks [8.462209415744098]
グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
論文 参考訳(メタデータ) (2025-08-27T13:42:45Z) - AlphaFold Database Debiasing for Robust Inverse Folding [58.792020809180336]
Debiasing Structure AutoEncoder (DeSAE)を導入し、故意に破損したバックボーンジオメトリからネイティブライクなコンフォーメーションを再構築することを学ぶ。
推測において、DeSAEをAFDB構造に適用すると、逆折り畳み性能を著しく向上する偏りのある構造が生成される。
論文 参考訳(メタデータ) (2025-06-10T02:25:31Z) - DeCaf: A Causal Decoupling Framework for OOD Generalization on Node Classification [14.96980804513399]
グラフニューラルネットワーク(GNN)は、分散シフトの影響を受けやすいため、クリティカルドメインの脆弱性やセキュリティ上の問題が発生する。
不変(機能、構造)-ラベルマッピングの学習を目標とする既存の方法は、データ生成プロセスに関する過度に単純化された仮定に依存することが多い。
構造因果モデル(SCM)を用いたより現実的なグラフデータ生成モデルを提案する。
本稿では,非バイアスな特徴ラベルと構造ラベルのマッピングを独立に学習する,カジュアルなデカップリングフレームワークDeCafを提案する。
論文 参考訳(メタデータ) (2024-10-27T00:22:18Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Domain Adaptation by Topology Regularization [0.0]
ドメイン適応(DA)または転送学習(TL)は、ラベル付き(ソース)データセットから関心のある(ターゲット)データセットに知識を転送するアルゴリズムを可能にする。
本稿では,TLに永続ホモロジーと呼ばれる位相データ解析手法を適用し,グローバルなデータ構造を活用することを提案する。
論文 参考訳(メタデータ) (2021-01-28T16:45:41Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。