論文の概要: SoftHGNN: Soft Hypergraph Neural Networks for General Visual Recognition
- arxiv url: http://arxiv.org/abs/2505.15325v1
- Date: Wed, 21 May 2025 10:01:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.431526
- Title: SoftHGNN: Soft Hypergraph Neural Networks for General Visual Recognition
- Title(参考訳): SoftHGNN: 一般的な視覚認識のためのソフトハイパーグラフニューラルネットワーク
- Authors: Mengqi Lei, Yihong Wu, Siqi Li, Xinhu Zheng, Juan Wang, Yue Gao, Shaoyi Du,
- Abstract要約: ハイパーグラフは高次相互作用をモデル化することによって従来のグラフを拡張する。
既存のハイパーグラフニューラルネットワークは通常、静的およびハードなハイパーエッジ割り当てに依存している。
本稿では,ハイパーグラフ計算の方法論を拡張したソフトハイパーグラフニューラルネットワーク(SoftHGNN)を提案する。
- 参考スコア(独自算出の注目度): 19.88933136559363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual recognition relies on understanding both the semantics of image tokens and the complex interactions among them. Mainstream self-attention methods, while effective at modeling global pair-wise relations, fail to capture high-order associations inherent in real-world scenes and often suffer from redundant computation. Hypergraphs extend conventional graphs by modeling high-order interactions and offer a promising framework for addressing these limitations. However, existing hypergraph neural networks typically rely on static and hard hyperedge assignments, leading to excessive and redundant hyperedges with hard binary vertex memberships that overlook the continuity of visual semantics. To overcome these issues, we present Soft Hypergraph Neural Networks (SoftHGNNs), which extend the methodology of hypergraph computation, to make it truly efficient and versatile in visual recognition tasks. Our framework introduces the concept of soft hyperedges, where each vertex is associated with hyperedges via continuous participation weights rather than hard binary assignments. This dynamic and differentiable association is achieved by using the learnable hyperedge prototype. Through similarity measurements between token features and the prototype, the model generates semantically rich soft hyperedges. SoftHGNN then aggregates messages over soft hyperedges to capture high-order semantics. To further enhance efficiency when scaling up the number of soft hyperedges, we incorporate a sparse hyperedge selection mechanism that activates only the top-k important hyperedges, along with a load-balancing regularizer to ensure balanced hyperedge utilization. Experimental results across three tasks on five datasets demonstrate that SoftHGNN efficiently captures high-order associations in visual scenes, achieving significant performance improvements.
- Abstract(参考訳): 視覚認識は、画像トークンの意味論とそれら間の複雑な相互作用の両方を理解することに依存する。
メインストリームの自己認識法は、グローバルなペアワイズ関係のモデリングに効果的であるが、現実のシーンに固有の高次関連を捉えず、しばしば冗長な計算に悩まされる。
ハイパーグラフは高次相互作用をモデル化することで従来のグラフを拡張し、これらの制限に対処するための有望なフレームワークを提供する。
しかし、既存のハイパーグラフニューラルネットワークは通常、静的およびハードなハイパーエッジの割り当てに依存しており、ビジュアルセマンティクスの連続性を見下ろすハードバイナリの頂点メンバシップを持つ過度で冗長なハイパーエッジが発生する。
これらの課題を克服するために,ハイパーグラフ計算の方法論を拡張したソフトハイパーグラフニューラルネットワーク(SoftHGNN)を提案する。
我々のフレームワークはソフトなハイパーエッジの概念を導入しており、それぞれの頂点はハードバイナリ代入ではなく、連続的な参加重みを通してハイパーエッジと関連付けられている。
この動的で微分可能なアソシエーションは、学習可能なハイパーエッジプロトタイプを用いて達成される。
トークンの特徴とプロトタイプの類似度の測定により、モデルは意味的にリッチなソフト・ハイパーエッジを生成する。
SoftHGNNはその後、ソフトなハイパーエッジにメッセージを集約して、高次のセマンティクスをキャプチャする。
ソフトなハイパーエッジの数をスケールアップする際の効率を高めるため,トップkの重要ハイパーエッジのみを活性化するスパースなハイパーエッジ選択機構と,バランスの取れたハイパーエッジ利用を確保するロードバランシングレギュレータを組み込んだ。
5つのデータセット上の3つのタスクにまたがる実験結果から、SoftHGNNは視覚シーンの高次関連を効率的にキャプチャし、大幅なパフォーマンス向上を実現している。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Principled inference of hyperedges and overlapping communities in
hypergraphs [0.0]
本稿では,ハイパーグラフの構造的構造を特徴付けるための統計的推測に基づく枠組みを提案する。
我々は,ハイパーエッジ予測タスクにおいて強い性能を示し,相互作用によってもたらされる情報に順応したコミュニティの検出,ノイズの多いハイパーエッジの追加に対する堅牢性を示した。
論文 参考訳(メタデータ) (2022-04-12T09:13:46Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Learning over Families of Sets -- Hypergraph Representation Learning for
Higher Order Tasks [12.28143554382742]
可変サイズのハイパーエッジの表現を実証的に表現するためのハイパーグラフニューラルネットワークを開発した。
複数の実世界のハイパーグラフデータセットのパフォーマンスを評価し、最新モデルよりも一貫性のある大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-01-19T18:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。