論文の概要: Transferable Graph Condensation from the Causal Perspective
- arxiv url: http://arxiv.org/abs/2601.21309v1
- Date: Thu, 29 Jan 2026 06:13:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.61161
- Title: Transferable Graph Condensation from the Causal Perspective
- Title(参考訳): 因果的視点から見た移動可能なグラフ凝縮
- Authors: Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou,
- Abstract要約: グラフデータセットの凝縮技術は、大きなデータセットを小さいが情報に富んだデータセットに圧縮するために出現している。
これらのメソッドは、元のデータセットとタスクにマッチするように、厳密に下流のアプリケーションを必要とします。
因果不変かつ移動可能なグラフデータセット縮合法であるtextbfTGCC を提案し,有効かつ伝達可能な縮合データセットを提供する。
- 参考スコア(独自算出の注目度): 23.83255478667496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing scale of graph datasets has significantly improved the performance of graph representation learning methods, but it has also introduced substantial training challenges. Graph dataset condensation techniques have emerged to compress large datasets into smaller yet information-rich datasets, while maintaining similar test performance. However, these methods strictly require downstream applications to match the original dataset and task, which often fails in cross-task and cross-domain scenarios. To address these challenges, we propose a novel causal-invariance-based and transferable graph dataset condensation method, named \textbf{TGCC}, providing effective and transferable condensed datasets. Specifically, to preserve domain-invariant knowledge, we first extract domain causal-invariant features from the spatial domain of the graph using causal interventions. Then, to fully capture the structural and feature information of the original graph, we perform enhanced condensation operations. Finally, through spectral-domain enhanced contrastive learning, we inject the causal-invariant features into the condensed graph, ensuring that the compressed graph retains the causal information of the original graph. Experimental results on five public datasets and our novel \textbf{FinReport} dataset demonstrate that TGCC achieves up to a 13.41\% improvement in cross-task and cross-domain complex scenarios compared to existing methods, and achieves state-of-the-art performance on 5 out of 6 datasets in the single dataset and task scenario.
- Abstract(参考訳): グラフデータセットの規模が大きくなると、グラフ表現学習法の性能が大幅に向上する一方で、かなりのトレーニング課題も導入されている。
グラフデータセットの凝縮技術は、大規模なデータセットを小さいが情報に富んだデータセットに圧縮すると同時に、同様のテスト性能を維持する。
しかしながら、これらのメソッドは、元のデータセットとタスクにマッチするように、厳密に下流のアプリケーションを必要とします。
これらの課題に対処するため,新しい因果不変かつ伝達可能なグラフデータセットの縮合法であるtextbf{TGCC} を提案し,有効かつ伝達可能な縮合データセットを提供する。
具体的には、まず、因果介入を用いて、グラフの空間領域から領域因果不変な特徴を抽出する。
そして,元のグラフの構造と特徴をフルに把握するために,拡張凝縮演算を行う。
最後に、スペクトル領域拡張コントラスト学習により、縮合グラフに因果不変特徴を注入し、圧縮グラフが元のグラフの因果情報を保持することを保証する。
5つの公開データセットと新しい \textbf{FinReport} データセットの実験結果から,TGCC が既存手法と比較して最大 13.41 % のクロスタスクとクロスドメインの複雑なシナリオの改善を実現し,単一のデータセットとタスクシナリオにおいて6つのデータセットのうち5つで最先端のパフォーマンスを実現していることが示された。
関連論文リスト
- Multi-view Graph Condensation via Tensor Decomposition [3.3346316632716313]
グラフニューラルネットワーク(GNN)は、薬物発見、物体検出、ソーシャルメディア分析、レコメンダシステム、テキスト分類など、様々な現実世界の応用において顕著な結果を示してきた。
巨大なポテンシャルとは対照的に、それらを大規模グラフでトレーニングすることは、そのストレージと処理に必要なリソースのため、重大な計算上の課題を示す。
グラフ凝縮は、GNNの予測性能を維持しながら、元のグラフの本質的な情報を保存する合成コンパクトグラフを学習することで、これらの要求を減らすための有望な解決策として現れてきた。
論文 参考訳(メタデータ) (2025-08-20T01:02:18Z) - Scalable Graph Condensation with Evolving Capabilities [23.957382415342735]
下流タスクを高速化するグラフ凝縮法 (GC) が提案されている。
既存のアプローチは、現実のグラフデータの本質的動的で進化的な性質と矛盾する静的なトレーニングセットを批判的に仮定する。
この研究は連続グラフ凝縮のための新しいフレームワークを導入し、コストのかかる再学習を必要とせず、蒸留グラフの効率的な更新を可能にする。
論文 参考訳(メタデータ) (2025-02-24T20:01:57Z) - DiffGraph: Heterogeneous Graph Diffusion Model [16.65576765238224]
グラフニューラルネットワーク(GNN)は、グラフ構造化データモデリングに革命をもたらしたが、従来のGNNは、現実のシナリオで一般的な複雑な異種構造に苦戦している。
異種グラフ拡散モデル(DiffGraph)は,革新的なクロスビュー・デノベーション・ストラテジーを導入した先駆的なフレームワークである。
中心となるDiffGraphは、高度な遅延不均一グラフ拡散機構を備え、優れたノイズ管理のための新しい前方および後方拡散プロセスを実装している。
論文 参考訳(メタデータ) (2025-01-04T15:30:48Z) - Predictive Query-based Pipeline for Graph Data [0.0]
グラフ埋め込み技術は大規模グラフの解析と処理を単純化する。
GraphSAGE、Node2Vec、FastRPといったいくつかのアプローチは、グラフの埋め込みを生成する効率的な方法を提供する。
埋め込みをノード特性として保存することにより、異なる埋め込み技術を比較し、それらの有効性を評価することができる。
論文 参考訳(メタデータ) (2024-12-13T08:03:57Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Navigating Complexity: Toward Lossless Graph Condensation via Expanding Window Matching [26.303436980548174]
グラフ凝縮は、コンパクトなグラフデータセットを合成することで、大規模グラフデータセットのサイズを減らすことを目的としている。
既存の手法では、特定のデータセットの元のグラフを正確に複製することができないことが多い。
本稿では,これまで無視されていた監視信号をブリッジすることで,無テクトトロスグラフの凝縮化に向けた最初の試みを行う。
論文 参考訳(メタデータ) (2024-02-07T16:32:02Z) - Two Trades is not Baffled: Condensing Graph via Crafting Rational Gradient Matching [50.30124426442228]
大規模グラフの学習はグラフ表現学習において顕著な成果を上げてきたが、そのコストと記憶力の増大が懸念されている。
そこで我々は,textbfCraftextbfTing textbfRationatextbf (textbfCTRL) という新しいグラフ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:49:10Z) - Does Graph Distillation See Like Vision Dataset Counterpart? [26.530765707382457]
本稿では,従来の構造情報を合成データにブロードキャストするSGDD(Structure-Broadcasting Graph dataset Distillation)方式を提案する。
9つのデータセットにまたがって提案したSGDDを検証する。
論文 参考訳(メタデータ) (2023-10-13T15:36:48Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。