論文の概要: EXGC: Bridging Efficiency and Explainability in Graph Condensation
- arxiv url: http://arxiv.org/abs/2402.05962v1
- Date: Mon, 5 Feb 2024 06:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:22:21.503022
- Title: EXGC: Bridging Efficiency and Explainability in Graph Condensation
- Title(参考訳): EXGC: グラフ凝縮におけるブリッジ効率と説明可能性
- Authors: Junfeng Fang and Xinglin Li and Yongduo Sui and Yuan Gao and Guibin
Zhang and Kun Wang and Xiang Wang and Xiangnan He
- Abstract要約: グラフ凝縮(GCond)は、大規模な実データセットをより簡潔で情報に富んだ合成グラフに蒸留するために導入された。
アクセラレーションの努力にもかかわらず、既存のGCondメソッドは主に効率、特に拡張Webデータグラフに適応する。
本稿では,効率を著しく向上し,説明可能性の注入が可能な,効率的かつeXplainable Graph Condensation法を提案する。
- 参考スコア(独自算出の注目度): 30.60535282372542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning on vast datasets, like web data, has made
significant strides. However, the associated computational and storage
overheads raise concerns. In sight of this, Graph condensation (GCond) has been
introduced to distill these large real datasets into a more concise yet
information-rich synthetic graph. Despite acceleration efforts, existing GCond
methods mainly grapple with efficiency, especially on expansive web data
graphs. Hence, in this work, we pinpoint two major inefficiencies of current
paradigms: (1) the concurrent updating of a vast parameter set, and (2)
pronounced parameter redundancy. To counteract these two limitations
correspondingly, we first (1) employ the Mean-Field variational approximation
for convergence acceleration, and then (2) propose the objective of Gradient
Information Bottleneck (GDIB) to prune redundancy. By incorporating the leading
explanation techniques (e.g., GNNExplainer and GSAT) to instantiate the GDIB,
our EXGC, the Efficient and eXplainable Graph Condensation method is proposed,
which can markedly boost efficiency and inject explainability. Our extensive
evaluations across eight datasets underscore EXGC's superiority and relevance.
Code is available at https://github.com/MangoKiller/EXGC.
- Abstract(参考訳): Webデータのような巨大なデータセットでのグラフ表現学習は、大きな進歩を遂げた。
しかし、関連する計算とストレージのオーバーヘッドは懸念を引き起こす。
これを見て、グラフ凝縮(gcond)は、これらの大きな実データセットをより簡潔で情報豊富な合成グラフに蒸留するために導入された。
アクセラレーションの努力にもかかわらず、既存のGCondメソッドは主に効率、特に拡張Webデータグラフに適応する。
そこで本研究では,(1)巨大なパラメータ集合の同時更新,(2)発音パラメータ冗長性という,現在のパラダイムの2つの大きな非効率性を明らかにする。
これらの2つの制約に対応するために,(1)収束加速度に平均場変動近似を適用し,(2)グラデーション情報ボトルネック(gdib)の目的をプルーン冗長性に対して提案する。
GDIBをインスタンス化するための主要な説明手法(GNNExplainerやGSATなど)を取り入れることで、効率を著しく向上し、説明可能性の注入が可能なEXGC、効率的なeXplainable Graph Condensation法を提案する。
EXGCの優位性と妥当性を裏付ける8つのデータセットにわたる広範な評価を行った。
コードはhttps://github.com/MangoKiller/EXGCで入手できる。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Explanation-Preserving Augmentation for Semi-Supervised Graph Representation Learning [13.494832603509897]
グラフ表現学習(GRL)は,ノード分類やグラフ分類といった幅広いタスクのパフォーマンス向上を実現するための有効な手法として登場した。
本稿では,拡張グラフの生成にグラフ説明手法を活用する新しい手法である Explanation-Preserving Augmentation (EPA) を提案する。
EPAはまず、グラフのセマンティクスに最も関係のある部分構造(説明)を推測するために、グラフ説明器を訓練するために少数のラベルを使用する。
論文 参考訳(メタデータ) (2024-10-16T15:18:03Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - GC4NC: A Benchmark Framework for Graph Condensation on Node Classification with New Insights [30.796414860754837]
グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
本稿では,ノード分類における多様なGC手法を評価するための包括的フレームワークである textbfGC4NC を紹介する。
私たちの体系的な評価は、凝縮グラフがどのように振る舞うか、そしてその成功を導く重要な設計選択について、新しい洞察を与えます。
論文 参考訳(メタデータ) (2024-06-24T15:17:49Z) - A Scalable and Effective Alternative to Graph Transformers [19.018320937729264]
グラフ変換器(GT)が導入された。
GTは、グラフ内のノード数の複雑さに悩まされ、大きなグラフに適用できなくなる。
GTに代わるスケーラブルで効果的なグラフ拡張コンテキスト演算子(GECO)を提案する。
論文 参考訳(メタデータ) (2024-06-17T19:57:34Z) - GCondenser: Benchmarking Graph Condensation [26.458605619132385]
本稿では,大規模グラフ凝縮ベンチマークGCondenserを提案する。
GCondenserには標準化されたGCパラダイムが含まれており、凝縮、バリデーション、評価手順で構成され、新しいGCメソッドやデータセットの拡張を可能にする。
論文 参考訳(メタデータ) (2024-05-23T07:25:31Z) - Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [56.26113670151363]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは複雑な最適化プロセスに悩まされており、過剰な計算資源を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはより効率的な凝縮プロセスで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。