論文の概要: GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation
- arxiv url: http://arxiv.org/abs/2511.00097v1
- Date: Thu, 30 Oct 2025 13:14:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.584791
- Title: GraphKeeper: Graph Domain-Incremental Learning via Knowledge Disentanglement and Preservation
- Title(参考訳): GraphKeeper: 知識の分散と保存によるグラフドメインインクリメンタルラーニング
- Authors: Zihao Guo, Qingyun Sun, Ziwei Zhang, Haonan Yuan, Huiping Zhuang, Xingcheng Fu, Jianxin Li,
- Abstract要約: グラフドメイン増分学習(Domain-IL)は、複数のグラフドメインにわたるモデルを更新することを目的としている。
本稿では,Domain-ILシナリオにおける破滅的な忘れに対処するためのGraphKeeperを提案する。
GraphKeeperは6.5%16.6%の改善を達成している。
- 参考スコア(独自算出の注目度): 39.188993605319276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph incremental learning (GIL), which continuously updates graph models by sequential knowledge acquisition, has garnered significant interest recently. However, existing GIL approaches focus on task-incremental and class-incremental scenarios within a single domain. Graph domain-incremental learning (Domain-IL), aiming at updating models across multiple graph domains, has become critical with the development of graph foundation models (GFMs), but remains unexplored in the literature. In this paper, we propose Graph Domain-Incremental Learning via Knowledge Dientanglement and Preservation (GraphKeeper), to address catastrophic forgetting in Domain-IL scenario from the perspectives of embedding shifts and decision boundary deviations. Specifically, to prevent embedding shifts and confusion across incremental graph domains, we first propose the domain-specific parameter-efficient fine-tuning together with intra- and inter-domain disentanglement objectives. Consequently, to maintain a stable decision boundary, we introduce deviation-free knowledge preservation to continuously fit incremental domains. Additionally, for graphs with unobservable domains, we perform domain-aware distribution discrimination to obtain precise embeddings. Extensive experiments demonstrate the proposed GraphKeeper achieves state-of-the-art results with 6.5%~16.6% improvement over the runner-up with negligible forgetting. Moreover, we show GraphKeeper can be seamlessly integrated with various representative GFMs, highlighting its broad applicative potential.
- Abstract(参考訳): グラフインクリメンタルラーニング(GIL)は、シーケンシャルな知識獲得によってグラフモデルを継続的に更新する。
しかし、既存のGILアプローチは、単一のドメイン内のタスクインクリメンタルとクラスインクリメンタルのシナリオに焦点を当てています。
複数のグラフドメインにわたるモデル更新を目的としたグラフドメイン増分学習(Domain-IL)は、グラフ基盤モデル(GFM)の開発に批判的になるが、文献では未解明のままである。
本稿では,知識指向と保存によるグラフ・ドメイン・インクリメンタル・ラーニング(Graph Keeper)を提案する。
具体的には、インクリメンタルグラフ領域間の埋め込みシフトや混乱を防止するために、まずドメイン固有のパラメータ効率の微調整とドメイン内およびドメイン間非絡み合いの目的を提案する。
したがって,安定な決定境界を維持するために,段階的な領域に連続的に適合する偏差のない知識保存を導入する。
さらに、観測不能な領域を持つグラフに対しては、正確な埋め込みを得るためにドメイン認識分布の識別を行う。
大規模な実験では、提案されたGraphKeeperが6.5%~16.6%の改善で最先端の結果を達成している。
さらに、GraphKeeperが様々な代表的GCMとシームレスに統合できることを示し、その広範な適用可能性を強調した。
関連論文リスト
- Towards Unsupervised Open-Set Graph Domain Adaptation via Dual Reprogramming [38.28291648575204]
教師なしオープンセットグラフ領域適応の問題について検討する。
本稿では,グラフとモデルの両方で再プログラミングを行うGraphRTAという新しいフレームワークを提案する。
提案手法は,最近の最先端のベースラインと比較して,満足度の高い性能を実現することができる。
論文 参考訳(メタデータ) (2025-10-21T07:34:58Z) - GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - Gradual Domain Adaptation for Graph Learning [15.648578809740414]
本稿では,適応時の情報損失を最小限に抑えるコンパクトなドメインシーケンスを構成するグラフ段階的ドメイン適応(GGDA)フレームワークを提案する。
我々のフレームワークは、拡張可能なドメイン間ワッサースタイン距離($W_p(mu_t,mu_t+1)$)に対して実装可能な上界と下界を提供し、最適なドメイン形成のための柔軟な調整を可能にする。
論文 参考訳(メタデータ) (2025-01-29T06:48:59Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - Text-Free Multi-domain Graph Pre-training: Toward Graph Foundation Models [33.2696184519275]
テキストフリーなマルチドメイングラフ事前学習・適応フレームワークMDGPTを提案する。
まず、シナジスティックな事前学習のために、ソースドメインにまたがる機能を整列する一連のドメイントークンを提案する。
第2に、統合されたプロンプトと混合プロンプトからなる二重プロンプトを提案し、統合されたマルチドメイン知識でターゲットドメインをさらに適応させる。
論文 参考訳(メタデータ) (2024-05-22T19:06:39Z) - Augmenting Knowledge Transfer across Graphs [16.50013525404218]
本稿では,グラフ間の知識伝達を増強する汎用学習フレームワークであるTransNETを紹介する。
特に、様々なグラフ信号を異なる粒度で自然に定式化できるトリニティ信号という新しい概念を導入する。
TransNETは7つのベンチマークデータセットに対する既存のアプローチを、大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-12-09T08:46:02Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。