論文の概要: Transferable Graph Condensation from the Causal Perspective
- arxiv url: http://arxiv.org/abs/2601.21309v2
- Date: Tue, 03 Feb 2026 00:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.688046
- Title: Transferable Graph Condensation from the Causal Perspective
- Title(参考訳): 因果的視点から見た移動可能なグラフ凝縮
- Authors: Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou,
- Abstract要約: グラフデータセットの凝縮技術は、大きなデータセットを小さいが情報に富んだデータセットに圧縮するために出現している。
これらのメソッドは、元のデータセットとタスクにマッチするように、厳密に下流のアプリケーションを必要とします。
因果不変かつ移動可能なグラフデータセット縮合法であるtextbfTGCC を提案し,有効かつ伝達可能な縮合データセットを提供する。
- 参考スコア(独自算出の注目度): 23.83255478667496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing scale of graph datasets has significantly improved the performance of graph representation learning methods, but it has also introduced substantial training challenges. Graph dataset condensation techniques have emerged to compress large datasets into smaller yet information-rich datasets, while maintaining similar test performance. However, these methods strictly require downstream applications to match the original dataset and task, which often fails in cross-task and cross-domain scenarios. To address these challenges, we propose a novel causal-invariance-based and transferable graph dataset condensation method, named \textbf{TGCC}, providing effective and transferable condensed datasets. Specifically, to preserve domain-invariant knowledge, we first extract domain causal-invariant features from the spatial domain of the graph using causal interventions. Then, to fully capture the structural and feature information of the original graph, we perform enhanced condensation operations. Finally, through spectral-domain enhanced contrastive learning, we inject the causal-invariant features into the condensed graph, ensuring that the compressed graph retains the causal information of the original graph. Experimental results on five public datasets and our novel \textbf{FinReport} dataset demonstrate that TGCC achieves up to a 13.41\% improvement in cross-task and cross-domain complex scenarios compared to existing methods, and achieves state-of-the-art performance on 5 out of 6 datasets in the single dataset and task scenario.
- Abstract(参考訳): グラフデータセットの規模が大きくなると、グラフ表現学習法の性能が大幅に向上する一方で、かなりのトレーニング課題も導入されている。
グラフデータセットの凝縮技術は、大規模なデータセットを小さいが情報に富んだデータセットに圧縮すると同時に、同様のテスト性能を維持する。
しかしながら、これらのメソッドは、元のデータセットとタスクにマッチするように、厳密に下流のアプリケーションを必要とします。
これらの課題に対処するため,新しい因果不変かつ伝達可能なグラフデータセットの縮合法であるtextbf{TGCC} を提案し,有効かつ伝達可能な縮合データセットを提供する。
具体的には、まず、因果介入を用いて、グラフの空間領域から領域因果不変な特徴を抽出する。
そして,元のグラフの構造と特徴をフルに把握するために,拡張凝縮演算を行う。
最後に、スペクトル領域拡張コントラスト学習により、縮合グラフに因果不変特徴を注入し、圧縮グラフが元のグラフの因果情報を保持することを保証する。
5つの公開データセットと新しい \textbf{FinReport} データセットの実験結果から,TGCC が既存手法と比較して最大 13.41 % のクロスタスクとクロスドメインの複雑なシナリオの改善を実現し,単一のデータセットとタスクシナリオにおいて6つのデータセットのうち5つで最先端のパフォーマンスを実現していることが示された。
関連論文リスト
- Multi-view Graph Condensation via Tensor Decomposition [3.3346316632716313]
グラフニューラルネットワーク(GNN)は、薬物発見、物体検出、ソーシャルメディア分析、レコメンダシステム、テキスト分類など、様々な現実世界の応用において顕著な結果を示してきた。
巨大なポテンシャルとは対照的に、それらを大規模グラフでトレーニングすることは、そのストレージと処理に必要なリソースのため、重大な計算上の課題を示す。
グラフ凝縮は、GNNの予測性能を維持しながら、元のグラフの本質的な情報を保存する合成コンパクトグラフを学習することで、これらの要求を減らすための有望な解決策として現れてきた。
論文 参考訳(メタデータ) (2025-08-20T01:02:18Z) - Scalable Graph Condensation with Evolving Capabilities [23.957382415342735]
下流タスクを高速化するグラフ凝縮法 (GC) が提案されている。
既存のアプローチは、現実のグラフデータの本質的動的で進化的な性質と矛盾する静的なトレーニングセットを批判的に仮定する。
この研究は連続グラフ凝縮のための新しいフレームワークを導入し、コストのかかる再学習を必要とせず、蒸留グラフの効率的な更新を可能にする。
論文 参考訳(メタデータ) (2025-02-24T20:01:57Z) - Predictive Query-based Pipeline for Graph Data [0.0]
グラフ埋め込み技術は大規模グラフの解析と処理を単純化する。
GraphSAGE、Node2Vec、FastRPといったいくつかのアプローチは、グラフの埋め込みを生成する効率的な方法を提供する。
埋め込みをノード特性として保存することにより、異なる埋め込み技術を比較し、それらの有効性を評価することができる。
論文 参考訳(メタデータ) (2024-12-13T08:03:57Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Navigating Complexity: Toward Lossless Graph Condensation via Expanding Window Matching [26.303436980548174]
グラフ凝縮は、コンパクトなグラフデータセットを合成することで、大規模グラフデータセットのサイズを減らすことを目的としている。
既存の手法では、特定のデータセットの元のグラフを正確に複製することができないことが多い。
本稿では,これまで無視されていた監視信号をブリッジすることで,無テクトトロスグラフの凝縮化に向けた最初の試みを行う。
論文 参考訳(メタデータ) (2024-02-07T16:32:02Z) - Two Trades is not Baffled: Condensing Graph via Crafting Rational Gradient Matching [50.30124426442228]
大規模グラフの学習はグラフ表現学習において顕著な成果を上げてきたが、そのコストと記憶力の増大が懸念されている。
そこで我々は,textbfCraftextbfTing textbfRationatextbf (textbfCTRL) という新しいグラフ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:49:10Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。