論文の概要: HIAL: A New Paradigm for Hypergraph Active Learning via Influence Maximization
- arxiv url: http://arxiv.org/abs/2507.20490v1
- Date: Mon, 28 Jul 2025 02:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.77482
- Title: HIAL: A New Paradigm for Hypergraph Active Learning via Influence Maximization
- Title(参考訳): HIAL: 影響の最大化によるハイパーグラフアクティブラーニングのための新しいパラダイム
- Authors: Yanheng Hou, Xunkai Li, Zhenjun Li, Bing Zhou, Ronghua Li, Guoren Wang,
- Abstract要約: HIAL(Hypergraph Active Learning)はハイパーグラフに特化して設計されたネイティブなアクティブラーニングフレームワークである。
HIALは, 性能, 効率, 汎用性, 堅牢性において, 最先端のベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 25.226891661398444
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, Hypergraph Neural Networks (HNNs) have demonstrated immense potential in handling complex systems with high-order interactions. However, acquiring large-scale, high-quality labeled data for these models is costly, making Active Learning (AL) a critical technique. Existing Graph Active Learning (GAL) methods, when applied to hypergraphs, often rely on techniques like "clique expansion," which destroys the high-order structural information crucial to a hypergraph's success, thereby leading to suboptimal performance. To address this challenge, we introduce HIAL (Hypergraph Active Learning), a native active learning framework designed specifically for hypergraphs. We innovatively reformulate the Hypergraph Active Learning (HAL) problem as an Influence Maximization task. The core of HIAL is a dual-perspective influence function that, based on our novel "High-Order Interaction-Aware (HOI-Aware)" propagation mechanism, synergistically evaluates a node's feature-space coverage (via Magnitude of Influence, MoI) and its topological influence (via Expected Diffusion Value, EDV). We prove that this objective function is monotone and submodular, thus enabling the use of an efficient greedy algorithm with a formal (1-1/e) approximation guarantee. Extensive experiments on seven public datasets demonstrate that HIAL significantly outperforms state-of-the-art baselines in terms of performance, efficiency, generality, and robustness, establishing an efficient and powerful new paradigm for active learning on hypergraphs.
- Abstract(参考訳): 近年、ハイパーグラフニューラルネットワーク(HNN)は、高次相互作用を持つ複雑なシステムを扱う大きな可能性を実証している。
しかし、これらのモデルのための大規模で高品質なラベル付きデータを取得するにはコストがかかるため、アクティブラーニング(AL)は重要なテクニックである。
既存のグラフアクティブラーニング(GAL)手法をハイパーグラフに適用する場合、しばしば「斜め展開(clique expansion)」のような手法に頼っている。
この課題に対処するために,ハイパーグラフに特化したネイティブなアクティブラーニングフレームワークであるHIAL(Hypergraph Active Learning)を紹介した。
本研究では,ハイパーグラフアクティブラーニング(HAL)問題を影響最大化タスクとして革新的に再構築する。
HIALのコアは、我々の新しい「High-Order Interaction-Aware (HOI-Aware)」伝搬機構に基づいて、ノードの特徴空間のカバレッジ(Magnitude of Influence, MoI)とそのトポロジ的影響(期待拡散値、EDV)を相乗的に評価する、二重パースペクティブな影響関数である。
この目的関数が単調で部分モジュラーであることを証明するため、正規な(1-1/e)近似保証付き効率的なグレディアルゴリズムが利用可能となる。
7つの公開データセットに対する大規模な実験により、HIALはパフォーマンス、効率、汎用性、堅牢性の観点から最先端のベースラインを著しく上回り、ハイパーグラフ上での能動的学習のための効率的で強力な新しいパラダイムを確立している。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Learning from Heterogeneity: A Dynamic Learning Framework for Hypergraphs [22.64740740462169]
本稿では,動的ハイパーエッジ構築と注意深い埋め込み更新が可能なLFHというハイパーグラフ学習フレームワークを提案する。
提案手法の有効性を評価するため,いくつかの一般的なデータセットを対象とした総合的な実験を行った。
論文 参考訳(メタデータ) (2023-07-07T06:26:44Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。