論文の概要: DHG-Bench: A Comprehensive Benchmark for Deep Hypergraph Learning
- arxiv url: http://arxiv.org/abs/2508.12244v2
- Date: Mon, 29 Sep 2025 05:21:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 20:10:04.519421
- Title: DHG-Bench: A Comprehensive Benchmark for Deep Hypergraph Learning
- Title(参考訳): DHG-Bench: ディープハイパーグラフ学習のための総合ベンチマーク
- Authors: Fan Li, Xiaoyang Wang, Wenjie Zhang, Ying Zhang, Xuemin Lin,
- Abstract要約: 近年,ハイパーグラフニューラルネットワーク (HNN) が注目されている。
DHG-BenchはHNNの最初の包括的なベンチマークである。
我々は22種類のデータセットに対して17の最先端HNNアルゴリズムを包括的に評価した。
- 参考スコア(独自算出の注目度): 26.71418573082207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep graph models have achieved great success in network representation learning. However, their focus on pairwise relationships restricts their ability to learn pervasive higher-order interactions in real-world systems, which can be naturally modeled as hypergraphs. To tackle this issue, Hypergraph Neural Networks (HNNs) have garnered substantial attention in recent years. Despite the proposal of numerous HNNs, the absence of consistent experimental protocols and multi-dimensional empirical analysis impedes deeper understanding and further development of HNN research. While several toolkits for deep hypergraph learning (DHGL) have been introduced to facilitate algorithm evaluation, they provide only limited quantitative evaluation results and insufficient coverage of advanced algorithms, datasets, and benchmark tasks. To fill the gap, we introduce DHG-Bench, the first comprehensive benchmark for HNNs. Specifically, DHG-Bench systematically investigates the characteristics of HNNs in terms of four dimensions: effectiveness, efficiency, robustness, and fairness. We comprehensively evaluate 17 state-of-the-art HNN algorithms on 22 diverse datasets spanning node-, edge-, and graph-level tasks, under unified experimental settings. Extensive experiments reveal both the strengths and limitations of existing algorithms, offering valuable insights and directions for future research. Furthermore, to facilitate reproducible research, we have developed an easy-to-use library for training and evaluating different HNN methods. The DHG-Bench library is available at: https://github.com/Coco-Hut/DHG-Bench.
- Abstract(参考訳): ディープグラフモデルはネットワーク表現学習において大きな成功を収めた。
しかし、ペア関係に焦点を絞ると、現実世界のシステムにおいて広範に高次相互作用を学習する能力が制限され、これは自然にハイパーグラフとしてモデル化できる。
この問題を解決するために,近年,ハイパーグラフニューラルネットワーク (HNN) が注目されている。
多くのHNNの提案にもかかわらず、一貫した実験プロトコルと多次元経験分析が欠如していることは、HNN研究の深い理解とさらなる発展を妨げている。
アルゴリズム評価を容易にするためにディープハイパーグラフ学習(DHGL)用のツールキットがいくつか導入されているが、これらのツールキットは限定的な定量的評価結果と高度なアルゴリズム、データセット、ベンチマークタスクの不十分なカバレッジしか提供していない。
このギャップを埋めるために、HNNの最初の包括的なベンチマークであるDHG-Benchを紹介します。
具体的には、DHG-Benchは、4次元(有効性、効率性、堅牢性、公正性)でHNNの特性を体系的に研究する。
我々は、ノードレベル、エッジレベル、グラフレベルのタスクにまたがる22の多様なデータセットに対して、統一された実験環境下で17の最先端HNNアルゴリズムを包括的に評価した。
大規模な実験は、既存のアルゴリズムの強みと限界の両方を明らかにし、将来の研究に貴重な洞察と方向性を提供する。
さらに,再現性のある研究を容易にするために,異なるHNN手法を訓練・評価するための簡易ライブラリを開発した。
DHG-Benchライブラリは、https://github.com/Coco-Hut/DHG-Benchで入手できる。
関連論文リスト
- G-OSR: A Comprehensive Benchmark for Graph Open-Set Recognition [54.45837774534411]
ノードレベルとグラフレベルの両方でグラフオープンセット認識(GOSR)手法を評価するベンチマークである textbfG-OSR を導入する。
結果は、現在のGOSR手法の一般化可能性と限界に関する重要な洞察を与える。
論文 参考訳(メタデータ) (2025-03-01T13:02:47Z) - VLSI Hypergraph Partitioning with Deep Learning [0.0]
グラフニューラルネットワーク(GNN)は、様々なノード、エッジ、グラフ予測タスクで強いパフォーマンスを示している。
実世界のネットリスト特性をエミュレートする合成分割ベンチマークを新たに導入する。
我々は、GNNベースのアプローチとともに既存の最先端のパーティショニングアルゴリズムを評価し、それぞれの利点とデメリットを強調した。
論文 参考訳(メタデータ) (2024-09-02T17:32:01Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Are we really making much progress? Revisiting, benchmarking, and
refining heterogeneous graph neural networks [38.15094159495419]
異種グラフニューラルネットワーク(HGNN)の系統的再生について述べる。
単純な同種GNN(例えばGCNとGAT)は、不適切な設定のため、大半が過小評価されている。
頑健で再現可能なHGNN研究を容易にするため、異種グラフベンチマーク(HGB)を構築した。
論文 参考訳(メタデータ) (2021-12-30T06:29:21Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - CogDL: A Comprehensive Library for Graph Deep Learning [55.694091294633054]
研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習ライブラリであるCogDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに固有のものである。
我々はCogDLのための効率的なスパース演算子を開発し、効率性のための最も競争力のあるグラフライブラリとなる。
論文 参考訳(メタデータ) (2021-03-01T12:35:16Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。