論文の概要: Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data
- arxiv url: http://arxiv.org/abs/2306.02664v1
- Date: Mon, 5 Jun 2023 07:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:19:01.081880
- Title: Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data
- Title(参考訳): 構造自由グラフ凝縮:大規模グラフから凝縮グラフ自由データへ
- Authors: Xin Zheng, Miao Zhang, Chunyang Chen, Quoc Viet Hung Nguyen, Xingquan
Zhu, Shirui Pan
- Abstract要約: 既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
- 参考スコア(独自算出の注目度): 67.71859808372368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph condensation, which reduces the size of a large-scale graph by
synthesizing a small-scale condensed graph as its substitution, has immediate
benefits for various graph learning tasks. However, existing graph condensation
methods rely on the joint optimization of nodes and structures in the condensed
graph, and overlook critical issues in effectiveness and generalization
ability. In this paper, we advocate a new Structure-Free Graph Condensation
paradigm, named SFGC, to distill a large-scale graph into a small-scale graph
node set without explicit graph structures, i.e., graph-free data. Our idea is
to implicitly encode topology structure information into the node attributes in
the synthesized graph-free data, whose topology is reduced to an identity
matrix. Specifically, SFGC contains two collaborative components: (1) a
training trajectory meta-matching scheme for effectively synthesizing
small-scale graph-free data; (2) a graph neural feature score metric for
dynamically evaluating the quality of the condensed data. Through training
trajectory meta-matching, SFGC aligns the long-term GNN learning behaviors
between the large-scale graph and the condensed small-scale graph-free data,
ensuring comprehensive and compact transfer of informative knowledge to the
graph-free data. Afterward, the underlying condensed graph-free data would be
dynamically evaluated with the graph neural feature score, which is a
closed-form metric for ensuring the excellent expressiveness of the condensed
graph-free data. Extensive experiments verify the superiority of SFGC across
different condensation ratios.
- Abstract(参考訳): グラフ凝縮は、その置換として小さな凝縮グラフを合成することにより、大規模グラフのサイズを小さくするが、様々なグラフ学習タスクに即時利益をもたらす。
しかし、既存のグラフ凝縮法は、凝縮グラフにおけるノードと構造の合同最適化に依存しており、有効性と一般化能力の重大な問題を見落としている。
本稿では,大規模グラフを明示的なグラフ構造,すなわちグラフフリーなデータを持たない小さなグラフノードに抽出する,SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提案する。
我々の考え方は、トポロジー構造情報を合成されたグラフフリーデータ内のノード属性に暗黙的にエンコードすることであり、トポロジーは同一性行列に還元される。
具体的には,(1)小規模グラフフリーデータを効果的に合成する訓練軌道メタマッチングスキーム,(2)凝縮データの品質を動的に評価するグラフニューラルネットワーク特徴点スコアメトリックの2つの協調成分を含む。
SFGCはトラジェクトリメタマッチングのトレーニングを通じて、大規模グラフと縮合した小規模グラフフリーデータの間の長期GNN学習挙動を整合させ、グラフフリーデータへの情報的知識の包括的かつコンパクトな伝達を保証する。
その後、基礎となる凝縮グラフ自由データは、凝縮グラフ自由データの優れた表現性を保証するための閉形式計量であるグラフ神経特徴スコアを用いて動的に評価される。
拡張実験は、異なる凝縮比におけるSFGCの優越性を検証した。
関連論文リスト
- GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Graph Data Condensation via Self-expressive Graph Structure Reconstruction [7.4525875528900665]
我々は textbfSelf-presentive Graph Structure textbfReconstruction による textbfGraph Data textbfCondensation という新しいフレームワークを紹介した。
提案手法は,元のグラフ構造を凝縮過程に明示的に組み込んで,凝縮ノード間の不規則な相互依存性を捕捉する。
論文 参考訳(メタデータ) (2024-03-12T03:54:25Z) - GDM: Dual Mixup for Graph Classification with Limited Supervision [27.8982897698616]
グラフニューラルネットワーク(GNN)は、グラフ分類タスクにおいて優れたパフォーマンスを得るために、多数のラベル付きグラフサンプルを必要とする。
ラベル付きグラフサンプルの減少に伴い, GNNの性能は著しく低下する。
本稿では,新しいラベル付きグラフサンプルを生成するための混合グラフ拡張法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:17:10Z) - Demystifying Graph Convolution with a Simple Concatenation [6.542119695695405]
グラフトポロジ、ノード特徴、ラベル間の重なり合う情報を定量化する。
グラフの畳み込みは、グラフの畳み込みに代わる単純だが柔軟な代替手段であることを示す。
論文 参考訳(メタデータ) (2022-07-18T16:39:33Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。