論文の概要: WiGNet: Windowed Vision Graph Neural Network
- arxiv url: http://arxiv.org/abs/2410.00807v1
- Date: Tue, 1 Oct 2024 15:54:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 03:55:54.852846
- Title: WiGNet: Windowed Vision Graph Neural Network
- Title(参考訳): WiGNet: ウィンドウ化されたビジョングラフニューラルネットワーク
- Authors: Gabriele Spadaro, Marco Grangetto, Attilio Fiandrotti, Enzo Tartaglione, Jhony H. Giraldo,
- Abstract要約: 効率的な画像処理のための新しいウインドウドビジョングラフニューラルネットワーク(WiGNet)モデルを提案する。
WiGNetは、イメージをウィンドウに分割し、各ウィンドウ内にグラフを構築することで、異なる戦略を模索している。
提案手法をImageNet-1kベンチマークデータセットで評価し,高解像度画像を用いた下流タスクとしてWiGNetの適応性を検証する。
- 参考スコア(独自算出の注目度): 14.751591779261208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Graph Neural Networks (GNNs) have demonstrated strong adaptability to various real-world challenges, with architectures such as Vision GNN (ViG) achieving state-of-the-art performance in several computer vision tasks. However, their practical applicability is hindered by the computational complexity of constructing the graph, which scales quadratically with the image size. In this paper, we introduce a novel Windowed vision Graph neural Network (WiGNet) model for efficient image processing. WiGNet explores a different strategy from previous works by partitioning the image into windows and constructing a graph within each window. Therefore, our model uses graph convolutions instead of the typical 2D convolution or self-attention mechanism. WiGNet effectively manages computational and memory complexity for large image sizes. We evaluate our method in the ImageNet-1k benchmark dataset and test the adaptability of WiGNet using the CelebA-HQ dataset as a downstream task with higher-resolution images. In both of these scenarios, our method achieves competitive results compared to previous vision GNNs while keeping memory and computational complexity at bay. WiGNet offers a promising solution toward the deployment of vision GNNs in real-world applications. We publicly released the code at https://github.com/EIDOSLAB/WiGNet.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)は、ビジョンGNN(ViG)のようなアーキテクチャがいくつかのコンピュータビジョンタスクで最先端のパフォーマンスを達成するなど、様々な現実の課題に強力な適応性を示している。
しかし、その実用性は、画像サイズと2次スケールのグラフを構築する際の計算複雑性によって妨げられている。
本稿では,効率的な画像処理のための新しいWindowed Vision Graph Neural Network(WiGNet)モデルを提案する。
WiGNetは、イメージをウィンドウに分割し、各ウィンドウ内にグラフを構築することで、以前の作業とは異なる戦略を模索している。
そこで本モデルでは,典型的な2次元畳み込みや自己認識機構の代わりに,グラフ畳み込みを用いる。
WiGNetは、大きな画像サイズに対する計算とメモリの複雑さを効果的に管理する。
提案手法をImageNet-1kベンチマークデータセットで評価し,高解像度画像を用いた下流タスクとしてCelebA-HQデータセットを用いてWiGNetの適応性を検証する。
どちらのシナリオでも,メモリと計算の複雑さを保ちながら,従来のビジョンGNNと比較して競合的な結果が得られる。
WiGNetは、現実世界のアプリケーションにビジョンGNNを配置するための有望なソリューションを提供する。
コードをhttps://github.com/EIDOSLAB/WiGNet.comで公開しました。
関連論文リスト
- X-MeshGraphNet: Scalable Multi-Scale Graph Neural Networks for Physics Simulation [0.0]
我々は、MeshGraphNetのスケーラブルでマルチスケールな拡張であるX-MeshGraphNetを紹介する。
X-MeshGraphNetは、大きなグラフとハローリージョンを分割することで、スケーラビリティのボトルネックを克服する。
実験の結果,X-MeshGraphNetは全グラフGNNの予測精度を維持していることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:10:05Z) - GKGNet: Group K-Nearest Neighbor based Graph Convolutional Network for Multi-Label Image Recognition [37.02054260449195]
マルチラベル画像認識(Multi-Label Image Recognition, MLIR)は、1つの画像で複数のオブジェクトラベルを予測することを目的とした課題である。
我々は、最初の完全グラフ畳み込みモデル、グループK-アネレスト近傍グラフ畳み込みネットワーク(GKGNet)を提示する。
実験により,GKGNetは計算コストを大幅に削減し,最先端の性能を実現することを示した。
論文 参考訳(メタデータ) (2023-08-28T07:50:04Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Analyzing the Traffic of MANETs using Graph Neural Networks [0.0]
本研究は,人気のあるGNNフレームワークであるPyTorch GeometricにMANETデータセットを実装した。
GNNを用いてMANETのトラフィックを解析する方法を示す。
我々は、MANET上でのGNNの性能と効率を測定するために、いくつかの評価指標を解釈する。
論文 参考訳(メタデータ) (2022-12-17T18:13:20Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Vision GNN: An Image is Worth Graph of Nodes [49.3335689216822]
本稿では,画像をグラフ構造として表現し,視覚タスクのためのグラフレベルの特徴を抽出するビジョンGNN(ViG)アーキテクチャを提案する。
画像のグラフ表現に基づいて、すべてのノード間で情報を変換、交換するViGモデルを構築します。
画像認識および物体検出タスクに関する大規模な実験は、我々のViGアーキテクチャの優位性を実証している。
論文 参考訳(メタデータ) (2022-06-01T07:01:04Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。