論文の概要: HGFormer: Topology-Aware Vision Transformer with HyperGraph Learning
- arxiv url: http://arxiv.org/abs/2504.02440v2
- Date: Wed, 09 Apr 2025 02:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:38.167003
- Title: HGFormer: Topology-Aware Vision Transformer with HyperGraph Learning
- Title(参考訳): HGFormer:ハイパーグラフ学習を備えたトポロジ対応視覚変換器
- Authors: Hao Wang, Shuo Zhang, Biao Leng,
- Abstract要約: 知覚探索のためのハイパーグラフの概念を紹介する。
具体的には,HyperGraph Transformer (HGFormer) と呼ばれるトポロジ対応の視覚変換器を提案する。
我々は効果的で統一的な表現を開発し、鮮明で詳細なシーンの描写を実現している。
- 参考スコア(独自算出の注目度): 14.344989900296968
- License:
- Abstract: The computer vision community has witnessed an extensive exploration of vision transformers in the past two years. Drawing inspiration from traditional schemes, numerous works focus on introducing vision-specific inductive biases. However, the implicit modeling of permutation invariance and fully-connected interaction with individual tokens disrupts the regional context and spatial topology, further hindering higher-order modeling. This deviates from the principle of perceptual organization that emphasizes the local groups and overall topology of visual elements. Thus, we introduce the concept of hypergraph for perceptual exploration. Specifically, we propose a topology-aware vision transformer called HyperGraph Transformer (HGFormer). Firstly, we present a Center Sampling K-Nearest Neighbors (CS-KNN) algorithm for semantic guidance during hypergraph construction. Secondly, we present a topology-aware HyperGraph Attention (HGA) mechanism that integrates hypergraph topology as perceptual indications to guide the aggregation of global and unbiased information during hypergraph messaging. Using HGFormer as visual backbone, we develop an effective and unitive representation, achieving distinct and detailed scene depictions. Empirical experiments show that the proposed HGFormer achieves competitive performance compared to the recent SoTA counterparts on various visual benchmarks. Extensive ablation and visualization studies provide comprehensive explanations of our ideas and contributions.
- Abstract(参考訳): コンピュータビジョンコミュニティは、過去2年間にビジョントランスフォーマーを幅広く探究してきた。
伝統的なスキームからインスピレーションを得た多くの作品は、視覚特有の帰納バイアスの導入に焦点を当てている。
しかし、置換不変性の暗黙的モデリングと個々のトークンとの完全連結相互作用は、局所的文脈と空間的トポロジーを妨害し、さらに高次モデリングを妨げる。
これは、視覚的要素の局所的なグループと全体的トポロジーを強調する知覚的組織原理から逸脱する。
そこで我々は,知覚探索のためのハイパーグラフの概念を紹介した。
具体的には,HyperGraph Transformer (HGFormer) と呼ばれるトポロジ対応の視覚変換器を提案する。
まず,ハイパーグラフ構築時の意味指導のためのCenter Smpling K-Nearest Neighbors (CS-KNN)アルゴリズムを提案する。
第2に、ハイパーグラフメッセージング中のグローバルおよびアンバイアス情報の集約を導くために、ハイパーグラフトポロジを知覚的表示として統合する、トポロジを意識したハイパーグラフ注意(HGA)機構を提案する。
視覚的バックボーンとしてHGFormerを用いることで,映像の鮮明な描写を実現する効果的かつ統一的な表現を開発する。
実験により,提案したHGFormerは,様々な視覚的ベンチマークにおいて,最近のSoTAと比較して競争性能が向上していることが示された。
広範囲にわたるアブレーションと可視化研究は、我々の考えと貢献の包括的説明を提供する。
関連論文リスト
- What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hypergraph Node Representation Learning with One-Stage Message Passing [28.311325846217574]
ハイパーグラフのグローバルおよびローカル情報伝搬をモデル化するための,新しいワンステージメッセージパッシングパラダイムを提案する。
我々はこのパラダイムをハイパーグラフノード表現学習のためのトランスフォーマーベースのフレームワークであるHGraphormerに統合する。
論文 参考訳(メタデータ) (2023-12-01T04:10:00Z) - Topology-guided Hypergraph Transformer Network: Unveiling Structural Insights for Improved Representation [1.1606619391009658]
位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
論文 参考訳(メタデータ) (2023-10-14T20:08:54Z) - A Unified View Between Tensor Hypergraph Neural Networks And Signal
Denoising [7.083679120873857]
テンソル・ハイパーグラフ畳み込みネットワーク(T-HGCN)がハイパーグラフ上の高次相互作用を維持するための強力なアーキテクチャとして登場したことを示す。
さらに,ハイパーGSD問題に基づくテンソル・ハイアグラフ反復ネットワーク(T-HGIN)を設計し,各層に複数ステップの更新手法を適用する。
論文 参考訳(メタデータ) (2023-09-15T13:19:31Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Vision Transformers: From Semantic Segmentation to Dense Prediction [139.15562023284187]
視覚的予測のための視覚変換器(ViT)のグローバルな文脈学習の可能性について検討する。
我々のモチベーションは、グローバルコンテキストを全受容界層で学習することで、ViTがより強力な長距離依存性情報を取得することである。
階層型ローカル・グローバル・トランスフォーマー (HLG) のファミリを定式化し, 窓内部の局所的な注意と, ピラミッド建築における窓全体のグローバルアテンションを特徴とする。
論文 参考訳(メタデータ) (2022-07-19T15:49:35Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Learning Multi-Granular Hypergraphs for Video-Based Person
Re-Identification [110.52328716130022]
ビデオベースの人物識別(re-ID)はコンピュータビジョンにおいて重要な研究課題である。
MGH(Multi-Granular Hypergraph)という新しいグラフベースのフレームワークを提案する。
MARSの90.0%のトップ-1精度はMGHを用いて達成され、最先端のスキームよりも優れていた。
論文 参考訳(メタデータ) (2021-04-30T11:20:02Z) - Interferometric Graph Transform: a Deep Unsupervised Graph
Representation [0.0]
Interferometric Graph Transform (IGT)は、グラフ表現を構築するための深層無教師グラフ畳み込みニューラルネットワークの新しいクラスである。
我々の学習表現は差別的特徴と不変特徴の両方から成り立っていることを示す。
論文 参考訳(メタデータ) (2020-06-10T08:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。