論文の概要: Higher-Order Regularization Learning on Hypergraphs
- arxiv url: http://arxiv.org/abs/2510.26533v1
- Date: Thu, 30 Oct 2025 14:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.856488
- Title: Higher-Order Regularization Learning on Hypergraphs
- Title(参考訳): ハイパーグラフによる高次正規化学習
- Authors: Adrien Weihs, Andrea Bertozzi, Matthew Thorpe,
- Abstract要約: 高次ハイパーグラフ学習(HOHL)は、最近、古典的ハイパーグラフ正規化の代替として導入された。
完全教師付き学習において, HOHL を正則化器として使用する場合, HOHL の切り離されたバージョンとの整合性を証明し, 明確な収束率を導出する。
- 参考スコア(独自算出の注目度): 1.8297494098768168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Higher-Order Hypergraph Learning (HOHL) was recently introduced as a principled alternative to classical hypergraph regularization, enforcing higher-order smoothness via powers of multiscale Laplacians induced by the hypergraph structure. Prior work established the well- and ill-posedness of HOHL through an asymptotic consistency analysis in geometric settings. We extend this theoretical foundation by proving the consistency of a truncated version of HOHL and deriving explicit convergence rates when HOHL is used as a regularizer in fully supervised learning. We further demonstrate its strong empirical performance in active learning and in datasets lacking an underlying geometric structure, highlighting HOHL's versatility and robustness across diverse learning settings.
- Abstract(参考訳): 高次ハイパーグラフ学習(HOHL)は、最近、古典的ハイパーグラフ正規化の代替として導入され、ハイパーグラフ構造によって誘導されるマルチスケールラプラシアンの力によって高次スムーズさを強制した。
以前の研究は、幾何学的設定における漸近的整合性解析を通じて、HOHLの良し悪しを確立した。
本理論は, HOHL を教師付き学習における正則化器として使用する場合, HOHL の切り離されたバージョンとの整合性を証明し, 明確な収束率を導出することにより, この基礎を拡張したものである。
さらに、アクティブな学習や、基礎となる幾何学構造を欠いたデータセットにおける強力な経験的パフォーマンスを実証し、多様な学習環境におけるHOHLの汎用性と堅牢性を強調した。
関連論文リスト
- Analysis of Semi-Supervised Learning on Hypergraphs [1.8297494098768168]
高次ハイパーグラフ学習(HOHL)を提案する。これはスケルトングラフからラプラシアンの力を介し、マルチスケールな滑らかさを実現する。
HOHLは高次ソボレフ半ノルムに収束する。
論文 参考訳(メタデータ) (2025-10-29T10:19:32Z) - Implicit Hypergraph Neural Networks: A Stable Framework for Higher-Order Relational Learning with Provable Guarantees [8.5183483099116]
Indicit Hypergraph Neural Networks (IHGNN)を導入し、非線形不動点方程式の解として表現を計算する。
IHGNNは、正確性と堅牢性の両方において、強力な従来のグラフ/ハイパーグラフニューラルネットワークベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-13T02:06:29Z) - Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Learning from Heterogeneity: A Dynamic Learning Framework for Hypergraphs [22.64740740462169]
本稿では,動的ハイパーエッジ構築と注意深い埋め込み更新が可能なLFHというハイパーグラフ学習フレームワークを提案する。
提案手法の有効性を評価するため,いくつかの一般的なデータセットを対象とした総合的な実験を行った。
論文 参考訳(メタデータ) (2023-07-07T06:26:44Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Hyperbolic Graph Neural Networks: A Review of Methods and Applications [61.49208407567829]
本稿では,ハイパボリックグラフ学習(HGL)の急速な発展分野を概観する。
我々は,(1)ハイパーボリックグラフ埋め込みに基づく手法,(2)グラフニューラルネットワークに基づくハイパーボリックモデル,(3)新興パラダイムに分割した既存手法を体系的に分類し,解析した。
我々は、推薦システム、知識グラフ、バイオインフォマティクス、その他の関連するシナリオを含む、複数のドメインにわたるHGLの多様な応用について幅広く論じる。
論文 参考訳(メタデータ) (2022-02-28T15:08:48Z) - Spatial-spectral Hyperspectral Image Classification via Multiple Random
Anchor Graphs Ensemble Learning [88.60285937702304]
本稿では,複数のランダムアンカーグラフアンサンブル学習(RAGE)を用いた空間スペクトルHSI分類手法を提案する。
まず、各選択されたバンドのより記述的な特徴を抽出し、局所的な構造と領域の微妙な変化を保存するローカルバイナリパターンを採用する。
次に,アンカーグラフの構成に適応隣接代入を導入し,計算複雑性を低減した。
論文 参考訳(メタデータ) (2021-03-25T09:31:41Z) - HNHN: Hypergraph Networks with Hyperedge Neurons [90.15253035487314]
HNHNはハイパーグラフ畳み込みネットワークであり、ハイパーノードとハイパーエッジの両方に非線形活性化関数が適用される。
実世界のデータセットの分類精度と速度の両面でのHNHNの性能向上を示す。
論文 参考訳(メタデータ) (2020-06-22T14:08:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。