論文の概要: DHG-Bench: A Comprehensive Benchmark on Deep Hypergraph Learning
- arxiv url: http://arxiv.org/abs/2508.12244v1
- Date: Sun, 17 Aug 2025 05:19:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.63062
- Title: DHG-Bench: A Comprehensive Benchmark on Deep Hypergraph Learning
- Title(参考訳): DHG-Bench: ディープハイパーグラフ学習の総合ベンチマーク
- Authors: Fan Li, Xiaoyang Wang, Wenjie Zhang, Ying Zhang, Xuemin Lin,
- Abstract要約: DHG-Benchは、ディープハイパーグラフ学習(DHGL)のための最初の総合的なベンチマークである。
DHG-Benchは、ノード、リレーショナルエッジ、グラフレベルのタスクにまたがる20の多様なデータセットと、16の最先端HNNアルゴリズムを統合している。
本ベンチマークでは, 有効性, 効率性, 頑健性, 公平性の4次元でHNNの特性を系統的に検討する。
- 参考スコア(独自算出の注目度): 30.373882583873435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although conventional deep graph models have achieved great success in relational learning, their focus on pairwise relationships limits their capacity to learn pervasive higher-order interactions in real-world complex systems, which can be naturally modeled as hypergraphs. To tackle this, hypergraph neural networks (HNNs), the dominant approach in deep hypergraph learning (DHGL), has garnered substantial attention in recent years. Despite the proposal of numerous HNN methods, there is no comprehensive benchmark for HNNs, which creates a great obstacle to understanding the progress of DHGL in several aspects: (i) insufficient coverage of datasets, algorithms, and tasks; (ii) a narrow evaluation of algorithm performance; and (iii) inconsistent dataset usage, preprocessing, and experimental setups that hinder comparability. To fill the gap, we introduce DHG-Bench, the first comprehensive benchmark for DHGL. Specifically, DHG-Bench integrates 20 diverse datasets spanning node-, edge-, and graph-level tasks, along with 16 state-of-the-art HNN algorithms, under consistent data processing and experimental protocols. Our benchmark systematically investigates the characteristics of HNNs in terms of four dimensions: effectiveness, efficiency, robustness, and fairness. Further, to facilitate reproducible research, we have developed an easy-to-use library for training and evaluating different HNN methods. Extensive experiments conducted with DHG-Bench reveal both the strengths and inherent limitations of existing algorithms, offering valuable insights and directions for future research. The code is publicly available at: https://github.com/Coco-Hut/DHG-Bench.
- Abstract(参考訳): 従来のディープグラフモデルはリレーショナル・ラーニングにおいて大きな成功を収めてきたが、ペアワイズ・リレーションシップに焦点をあてることで、実世界の複雑なシステムにおいて広範に高次相互作用を学習する能力が制限され、これは自然にハイパーグラフとしてモデル化できる。
これを解決するために、ディープハイパーグラフ学習(DHGL)の主要なアプローチであるハイパーグラフニューラルネットワーク(HNN)が近年注目を集めている。
多くのHNNメソッドの提案にもかかわらず、HNNの包括的なベンチマークはない。
一 データセット、アルゴリズム及びタスクのカバー不足
(ii)アルゴリズム性能の狭い評価、及び
(iii)一貫性のないデータセットの使用、前処理、および互換性を妨げる実験的なセットアップ。
このギャップを埋めるために、DHGLの最初の包括的なベンチマークであるDHG-Benchを紹介する。
具体的には、ノードレベル、エッジレベル、グラフレベルのタスクにまたがる20の多様なデータセットと、16の最先端HNNアルゴリズムを、一貫性のあるデータ処理と実験プロトコルの下で統合する。
本ベンチマークでは,HNNの特性を,有効性,効率性,堅牢性,公平性という4つの次元で体系的に検討する。
さらに,再現性のある研究を容易にするために,異なるHNN手法を訓練・評価するための簡易ライブラリを開発した。
DHG-Benchによる大規模な実験は、既存のアルゴリズムの強みと固有の限界の両方を明らかにし、将来の研究に貴重な洞察と方向性を提供する。
コードは、https://github.com/Coco-Hut/DHG-Bench.comで公開されている。
関連論文リスト
- G-OSR: A Comprehensive Benchmark for Graph Open-Set Recognition [54.45837774534411]
ノードレベルとグラフレベルの両方でグラフオープンセット認識(GOSR)手法を評価するベンチマークである textbfG-OSR を導入する。
結果は、現在のGOSR手法の一般化可能性と限界に関する重要な洞察を与える。
論文 参考訳(メタデータ) (2025-03-01T13:02:47Z) - VLSI Hypergraph Partitioning with Deep Learning [0.0]
グラフニューラルネットワーク(GNN)は、様々なノード、エッジ、グラフ予測タスクで強いパフォーマンスを示している。
実世界のネットリスト特性をエミュレートする合成分割ベンチマークを新たに導入する。
我々は、GNNベースのアプローチとともに既存の最先端のパーティショニングアルゴリズムを評価し、それぞれの利点とデメリットを強調した。
論文 参考訳(メタデータ) (2024-09-02T17:32:01Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Are we really making much progress? Revisiting, benchmarking, and
refining heterogeneous graph neural networks [38.15094159495419]
異種グラフニューラルネットワーク(HGNN)の系統的再生について述べる。
単純な同種GNN(例えばGCNとGAT)は、不適切な設定のため、大半が過小評価されている。
頑健で再現可能なHGNN研究を容易にするため、異種グラフベンチマーク(HGB)を構築した。
論文 参考訳(メタデータ) (2021-12-30T06:29:21Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - CogDL: A Comprehensive Library for Graph Deep Learning [55.694091294633054]
研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習ライブラリであるCogDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに固有のものである。
我々はCogDLのための効率的なスパース演算子を開発し、効率性のための最も競争力のあるグラフライブラリとなる。
論文 参考訳(メタデータ) (2021-03-01T12:35:16Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。