論文の概要: Multi-Scale High-Resolution Logarithmic Grapher Module for Efficient Vision GNNs
- arxiv url: http://arxiv.org/abs/2510.13740v1
- Date: Wed, 15 Oct 2025 16:47:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.769365
- Title: Multi-Scale High-Resolution Logarithmic Grapher Module for Efficient Vision GNNs
- Title(参考訳): 効率的なビジョンGNNのためのマルチスケール高分解能対数グラフモジュール
- Authors: Mustafa Munir, Alex Zhang, Radu Marculescu,
- Abstract要約: ビジョングラフニューラルネット(ViG)は、従来の畳み込みニューラルネット(CNN)とトランスフォーマー(ViT)に対抗して、ビジョンタスクにおける約束を実証した。
本稿では,長距離リンク数を制限することで性能を向上させるため,新たなグラフ構築手法LSGCを提案する。
当社の最小モデルであるTi-LogViGは、ImageNet-1Kの平均トップ1精度が71.7%、標準偏差が0.2%である。
- 参考スコア(独自算出の注目度): 25.60289758013904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision graph neural networks (ViG) have demonstrated promise in vision tasks as a competitive alternative to conventional convolutional neural nets (CNN) and transformers (ViTs); however, common graph construction methods, such as k-nearest neighbor (KNN), can be expensive on larger images. While methods such as Sparse Vision Graph Attention (SVGA) have shown promise, SVGA's fixed step scale can lead to over-squashing and missing multiple connections to gain the same information that could be gained from a long-range link. Through this observation, we propose a new graph construction method, Logarithmic Scalable Graph Construction (LSGC) to enhance performance by limiting the number of long-range links. To this end, we propose LogViG, a novel hybrid CNN-GNN model that utilizes LSGC. Furthermore, inspired by the successes of multi-scale and high-resolution architectures, we introduce and apply a high-resolution branch and fuse features between our high-resolution and low-resolution branches for a multi-scale high-resolution Vision GNN network. Extensive experiments show that LogViG beats existing ViG, CNN, and ViT architectures in terms of accuracy, GMACs, and parameters on image classification and semantic segmentation tasks. Our smallest model, Ti-LogViG, achieves an average top-1 accuracy on ImageNet-1K of 79.9% with a standard deviation of 0.2%, 1.7% higher average accuracy than Vision GNN with a 24.3% reduction in parameters and 35.3% reduction in GMACs. Our work shows that leveraging long-range links in graph construction for ViGs through our proposed LSGC can exceed the performance of current state-of-the-art ViGs. Code is available at https://github.com/mmunir127/LogViG-Official.
- Abstract(参考訳): ビジョングラフニューラルネットワーク(ViG)は、従来の畳み込みニューラルネット(CNN)やトランスフォーマー(ViT)と競合するものとしてビジョンタスクの可能性を実証している。
Sparse Vision Graph Attention (SVGA) のような手法は将来性を示しているが、SVGAの固定ステップスケールは、長い範囲のリンクから得られるのと同じ情報を得るために、オーバースカッシングと複数の接続の欠如につながる可能性がある。
そこで本研究では,長距離リンク数を制限することで性能を向上させるため,新たなグラフ構築手法LSGCを提案する。
そこで我々は,LSGCを利用した新しいハイブリッドCNN-GNNモデルであるLogViGを提案する。
さらに,マルチスケール・高分解能アーキテクチャの成功に触発されて,高分解能ブランチと低分解能ブランチの間に高分解能ブランチとヒューズ機能を導入し,マルチスケールの高分解能ビジョンGNNネットワークに適用する。
大規模な実験により、LogViGは画像分類とセマンティックセグメンテーションタスクの精度、GMAC、パラメータで既存のViG、CNN、ViTアーキテクチャに勝っていることが示された。
我々の最小モデルであるTi-LogViGは、標準偏差0.2%、平均偏差1.7%、パラメータの24.3%、GMACの35.3%で、ImageNet-1Kの平均トップ1精度79.9%を達成する。
我々の研究は,提案したLSGCによるグラフ構築における長距離リンクの活用が,現在の最先端のViGよりも優れていることを示す。
コードはhttps://github.com/mmunir127/LogViG-Officialで入手できる。
関連論文リスト
- ClusterViG: Efficient Globally Aware Vision GNNs via Image Partitioning [7.325055402812975]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)がコンピュータビジョン(CV)の分野を支配している。
このボトルネックに対処する最近の研究は、非構造化グラフを構築するためのGNNの柔軟性に制約を課している。
そこで本稿では, 動的効率性グラフ畳み込み (DEGC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-18T02:59:10Z) - GreedyViG: Dynamic Axial Graph Construction for Efficient Vision GNNs [5.895049552752008]
ビジョングラフニューラルネットワーク(ViG)は、コンピュータビジョンの探索のための新しい道を提供する。
ViGsの主なボトルネックは、グラフ構築に使用される非効率なk-アネレスト隣り(KNN)演算である。
KNNよりも効率的な動的軸グラフ構築(DAGC)を設計するための新しい手法を提案する。
また,DAGCを用いた新しいCNN-GNNアーキテクチャであるGreedyViGを提案する。
論文 参考訳(メタデータ) (2024-05-10T23:21:16Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - PVG: Progressive Vision Graph for Vision Recognition [48.11440886492801]
本稿では,視覚認識タスクのためのプログレッシブビジョングラフ(PVG)アーキテクチャを提案する。
PVGには3つの主要コンポーネントが含まれている: 1) プログレッシブ・セパレート・グラフ・コンストラクション(PSGC)、2) 隣ノードの情報収集と更新モジュール、3) グラフエラーリニア・ユニット(GraphLU)。
論文 参考訳(メタデータ) (2023-08-01T14:35:29Z) - MaGNAS: A Mapping-Aware Graph Neural Architecture Search Framework for
Heterogeneous MPSoC Deployment [8.29394286023338]
ヘテロジニアスMPSoCプラットフォーム上でのビジョンGNNワークロードの効率的な処理を実現するための新しい設計マッピング手法を提案する。
MaGNASは、2階層の進化的探索を用いて最適なGNNを特定し、最高のパフォーマンストレードオフをもたらすペアリングをマッピングする。
我々の実験結果によると、MaGNASは1.57倍のレイテンシ速度を提供でき、Xavier MPSoCで実行される複数のビジョンデータセットとGPUのみのデプロイメントでは3.38倍エネルギー効率が向上している。
論文 参考訳(メタデータ) (2023-07-16T14:56:50Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。