論文の概要: DVHGNN: Multi-Scale Dilated Vision HGNN for Efficient Vision Recognition
- arxiv url: http://arxiv.org/abs/2503.14867v1
- Date: Wed, 19 Mar 2025 03:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:23:50.024501
- Title: DVHGNN: Multi-Scale Dilated Vision HGNN for Efficient Vision Recognition
- Title(参考訳): DVHGNN:高能率視覚認識のためのマルチスケール拡張ビジョンHGNN
- Authors: Caoshuo Li, Tanzhe Li, Xiaobin Hu, Donghao Luo, Taisong Jin,
- Abstract要約: 我々はDVHGNN(Dilated Vision HyperGraph Neural Network)と呼ばれる新しい視覚アーキテクチャを提案する。
DVHGNNは、オブジェクト間の高次相関を効率的に捉えるために、マルチスケールハイパーグラフを活用するように設計されている。
我々のDVHGNN-Sは、ImageNet-1Kで83.1%という印象的なトップ1の精度を達成し、ViG-Sを+1.0%、ViHGNN-Sを+0.6%上回る。
- 参考スコア(独自算出の注目度): 7.762533819978473
- License:
- Abstract: Recently, Vision Graph Neural Network (ViG) has gained considerable attention in computer vision. Despite its groundbreaking innovation, Vision Graph Neural Network encounters key issues including the quadratic computational complexity caused by its K-Nearest Neighbor (KNN) graph construction and the limitation of pairwise relations of normal graphs. To address the aforementioned challenges, we propose a novel vision architecture, termed Dilated Vision HyperGraph Neural Network (DVHGNN), which is designed to leverage multi-scale hypergraph to efficiently capture high-order correlations among objects. Specifically, the proposed method tailors Clustering and Dilated HyperGraph Construction (DHGC) to adaptively capture multi-scale dependencies among the data samples. Furthermore, a dynamic hypergraph convolution mechanism is proposed to facilitate adaptive feature exchange and fusion at the hypergraph level. Extensive qualitative and quantitative evaluations of the benchmark image datasets demonstrate that the proposed DVHGNN significantly outperforms the state-of-the-art vision backbones. For instance, our DVHGNN-S achieves an impressive top-1 accuracy of 83.1% on ImageNet-1K, surpassing ViG-S by +1.0% and ViHGNN-S by +0.6%.
- Abstract(参考訳): 近年,ビジョングラフニューラルネットワーク (ViG) がコンピュータビジョンにおいて注目されている。
その画期的な革新にもかかわらず、Vision Graph Neural Networkは、K-Nearest Neighbor (KNN)グラフ構築による二次計算の複雑さや、正規グラフの対関係の制限など、重要な問題に直面している。
上記の課題に対処するため,Dilated Vision HyperGraph Neural Network (DVHGNN) と呼ばれる新しい視覚アーキテクチャを提案する。
具体的には、クラスタリングと拡張ハイパーグラフ構築(DHGC)を調整し、データサンプル間のマルチスケール依存関係を適応的にキャプチャする。
さらに、ハイパーグラフレベルでの適応的な特徴交換と融合を容易にするために、動的ハイパーグラフ畳み込み機構を提案する。
ベンチマーク画像データセットの大規模定性的および定量的評価は、提案したDVHGNNが最先端のビジョンバックボーンを著しく上回っていることを示す。
例えば、私たちのDVHGNN-SはImageNet-1Kで83.1%という印象的なトップ1の精度を達成し、ViG-Sを+1.0%、ViHGNN-Sを+0.6%上回る。
関連論文リスト
- ClusterViG: Efficient Globally Aware Vision GNNs via Image Partitioning [7.325055402812975]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)がコンピュータビジョン(CV)の分野を支配している。
このボトルネックに対処する最近の研究は、非構造化グラフを構築するためのGNNの柔軟性に制約を課している。
そこで本稿では, 動的効率性グラフ畳み込み (DEGC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-18T02:59:10Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - VisionGRU: A Linear-Complexity RNN Model for Efficient Image Analysis [8.10783983193165]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は画像解析の主流モデルである。
本稿では,効率的な画像分類のための新しいRNNアーキテクチャであるVisionGRUを紹介する。
論文 参考訳(メタデータ) (2024-12-24T05:27:11Z) - RSEA-MVGNN: Multi-View Graph Neural Network with Reliable Structural Enhancement and Aggregation [26.42386423708777]
信頼性の高い構造強化・集約型マルチビューグラフニューラルネットワーク(RSEA-MVGNN)を提案する。
RSEA-MVGNNは、ビュー特有の信念と不確実性を意見として学習し、ビュー品質を評価する。
5つの実世界のデータセットで実施された実験の結果、RSEA-MVGNNは最先端のGNNベースの手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-14T07:13:36Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。