論文の概要: Multi-view Graph Condensation via Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2508.14330v1
- Date: Wed, 20 Aug 2025 01:02:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.297891
- Title: Multi-view Graph Condensation via Tensor Decomposition
- Title(参考訳): テンソル分解による多視点グラフ凝縮
- Authors: Nícolas Roque dos Santos, Dawon Ahn, Diego Minatel, Alneu de Andrade Lopes, Evangelos E. Papalexakis,
- Abstract要約: グラフニューラルネットワーク(GNN)は、薬物発見、物体検出、ソーシャルメディア分析、レコメンダシステム、テキスト分類など、様々な現実世界の応用において顕著な結果を示してきた。
巨大なポテンシャルとは対照的に、それらを大規模グラフでトレーニングすることは、そのストレージと処理に必要なリソースのため、重大な計算上の課題を示す。
グラフ凝縮は、GNNの予測性能を維持しながら、元のグラフの本質的な情報を保存する合成コンパクトグラフを学習することで、これらの要求を減らすための有望な解決策として現れてきた。
- 参考スコア(独自算出の注目度): 3.3346316632716313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable results in various real-world applications, including drug discovery, object detection, social media analysis, recommender systems, and text classification. In contrast to their vast potential, training them on large-scale graphs presents significant computational challenges due to the resources required for their storage and processing. Graph Condensation has emerged as a promising solution to reduce these demands by learning a synthetic compact graph that preserves the essential information of the original one while maintaining the GNN's predictive performance. Despite their efficacy, current graph condensation approaches frequently rely on a computationally intensive bi-level optimization. Moreover, they fail to maintain a mapping between synthetic and original nodes, limiting the interpretability of the model's decisions. In this sense, a wide range of decomposition techniques have been applied to learn linear or multi-linear functions from graph data, offering a more transparent and less resource-intensive alternative. However, their applicability to graph condensation remains unexplored. This paper addresses this gap and proposes a novel method called Multi-view Graph Condensation via Tensor Decomposition (GCTD) to investigate to what extent such techniques can synthesize an informative smaller graph and achieve comparable downstream task performance. Extensive experiments on six real-world datasets demonstrate that GCTD effectively reduces graph size while preserving GNN performance, achieving up to a 4.0\ improvement in accuracy on three out of six datasets and competitive performance on large graphs compared to existing approaches. Our code is available at https://anonymous.4open.science/r/gctd-345A.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、薬物発見、物体検出、ソーシャルメディア分析、レコメンダシステム、テキスト分類など、様々な現実世界の応用において顕著な結果を示してきた。
巨大なポテンシャルとは対照的に、それらを大規模グラフでトレーニングすることは、そのストレージと処理に必要なリソースのため、重大な計算上の課題を示す。
グラフ凝縮は、GNNの予測性能を維持しながら、元のグラフの本質的な情報を保存する合成コンパクトグラフを学習することで、これらの要求を減らすための有望な解決策として現れてきた。
その有効性にもかかわらず、現在のグラフ凝縮法は計算集約的な双レベル最適化にしばしば依存する。
さらに、合成ノードと元のノード間のマッピングの維持に失敗し、モデルの判断の解釈可能性を制限する。
この意味では、グラフデータから線形あるいは多線形関数を学習するために幅広い分解手法が適用され、より透明でリソース集約の少ない代替手段を提供する。
しかし、グラフ凝縮への適用性は未解明のままである。
本稿では,このギャップに対処し,テンソル分解によるマルチビューグラフ凝縮法 (Multi-view Graph Condensation) を提案する。
6つの実世界のデータセットに対する大規模な実験により、GCTDはGNNのパフォーマンスを維持しながらグラフのサイズを効果的に削減し、6つのデータセットのうち3つの精度を4.0倍に改善し、既存のアプローチと比較して大きなグラフ上での競合性能を向上した。
私たちのコードはhttps://anonymous.4open.science/r/gctd-345Aで利用可能です。
関連論文リスト
- GC4NC: A Benchmark Framework for Graph Condensation on Node Classification with New Insights [30.796414860754837]
グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
本稿では,ノード分類における多様なGC手法を評価するための包括的フレームワークである textbfGC4NC を紹介する。
私たちの体系的な評価は、凝縮グラフがどのように振る舞うか、そしてその成功を導く重要な設計選択について、新しい洞察を与えます。
論文 参考訳(メタデータ) (2024-06-24T15:17:49Z) - Navigating Complexity: Toward Lossless Graph Condensation via Expanding Window Matching [26.303436980548174]
グラフ凝縮は、コンパクトなグラフデータセットを合成することで、大規模グラフデータセットのサイズを減らすことを目的としている。
既存の手法では、特定のデータセットの元のグラフを正確に複製することができないことが多い。
本稿では,これまで無視されていた監視信号をブリッジすることで,無テクトトロスグラフの凝縮化に向けた最初の試みを行う。
論文 参考訳(メタデータ) (2024-02-07T16:32:02Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。