論文の概要: GC-Bench: A Benchmark Framework for Graph Condensation with New Insights
- arxiv url: http://arxiv.org/abs/2406.16715v1
- Date: Mon, 24 Jun 2024 15:17:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 14:15:21.825948
- Title: GC-Bench: A Benchmark Framework for Graph Condensation with New Insights
- Title(参考訳): GC-Bench: 新しいインサイトを備えたグラフ凝縮のためのベンチマークフレームワーク
- Authors: Shengbo Gong, Juntong Ni, Noveen Sachdeva, Carl Yang, Wei Jin,
- Abstract要約: グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
本稿では,複数の次元にわたる最近のGC手法を評価する包括的フレームワークであるGC-Benchを紹介する。
- 参考スコア(独自算出の注目度): 30.796414860754837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph condensation (GC) is an emerging technique designed to learn a significantly smaller graph that retains the essential information of the original graph. This condensed graph has shown promise in accelerating graph neural networks while preserving performance comparable to those achieved with the original, larger graphs. Additionally, this technique facilitates downstream applications such as neural architecture search and enhances our understanding of redundancy in large graphs. Despite the rapid development of GC methods, a systematic evaluation framework remains absent, which is necessary to clarify the critical designs for particular evaluative aspects. Furthermore, several meaningful questions have not been investigated, such as whether GC inherently preserves certain graph properties and offers robustness even without targeted design efforts. In this paper, we introduce GC-Bench, a comprehensive framework to evaluate recent GC methods across multiple dimensions and to generate new insights. Our experimental findings provide a deeper insights into the GC process and the characteristics of condensed graphs, guiding future efforts in enhancing performance and exploring new applications. Our code is available at \url{https://github.com/Emory-Melody/GraphSlim/tree/main/benchmark}.
- Abstract(参考訳): グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
この凝縮グラフは、元の大きなグラフで達成されたものと同等のパフォーマンスを維持しながら、グラフニューラルネットワークを加速する可能性を示している。
さらに、この手法は、ニューラルネットワーク探索のような下流のアプリケーションを容易にし、大きなグラフにおける冗長性の理解を強化する。
GC手法の急速な開発にもかかわらず、体系的な評価フレームワークはいまだに存在せず、特定の評価面に対する重要な設計を明確にする必要がある。
さらに、GCが特定のグラフ特性を本質的に保存し、ターゲット設計の努力なしに堅牢性を提供するかどうかなど、いくつかの有意義な疑問が研究されていない。
本稿では,最近のGC手法を複数の次元にわたって評価し,新たな洞察を生み出すための総合的なフレームワークであるGC-Benchを紹介する。
実験により,GCプロセスと凝縮グラフの特性についてより深い知見が得られ,性能向上と新しいアプリケーション探索に向けた今後の取り組みを導いた。
私たちのコードは \url{https://github.com/Emory-Melody/GraphSlim/tree/main/benchmark} で利用可能です。
関連論文リスト
- EggNet: An Evolving Graph-based Graph Attention Network for Particle Track Reconstruction [0.0]
我々は,一組のヒットから粒子トラックを直接再構成するワンショットOCアプローチを検討する。
このアプローチは、グラフを反復的に更新し、各グラフを横断するメッセージをより容易にする。
TrackMLデータセットに関する予備研究は、固定された入力グラフを必要とする方法と比較して、トラック性能が向上したことを示している。
論文 参考訳(メタデータ) (2024-07-18T22:29:24Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - GCondenser: Benchmarking Graph Condensation [26.458605619132385]
本稿では,大規模グラフ凝縮ベンチマークGCondenserを提案する。
GCondenserには標準化されたGCパラダイムが含まれており、凝縮、バリデーション、評価手順で構成され、新しいGCメソッドやデータセットの拡張を可能にする。
論文 参考訳(メタデータ) (2024-05-23T07:25:31Z) - Graph Condensation: A Survey [49.41718583061147]
グラフデータの急速な成長は、ストレージ、送信、特にグラフニューラルネットワーク(GNN)のトレーニングにおいて大きな課題をもたらす。
これらの課題に対処するために、グラフ凝縮(GC)が革新的な解決策として登場した。
GCはコンパクトだが非常に代表的なグラフに重点を置いており、トレーニングされたGNNが元の大きなグラフでトレーニングされたグラフに匹敵するパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-01-22T06:47:00Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。