論文の概要: Human-inspired Global-to-Parallel Multi-scale Encoding for Lightweight Vision Models
- arxiv url: http://arxiv.org/abs/2601.08190v1
- Date: Tue, 13 Jan 2026 03:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.050149
- Title: Human-inspired Global-to-Parallel Multi-scale Encoding for Lightweight Vision Models
- Title(参考訳): 軽量ビジョンモデルのためのヒューマンインスパイアされたグローバル・パラレルマルチスケール符号化
- Authors: Wei Xu,
- Abstract要約: 本稿では,グローバル・パラレル・マルチスケールシステムに基づく軽量ビジョンネットワークを提案する。
FLOPとパラメータのバランスの取れたフットプリントを維持しながら,H-GPEは高い性能を示すことを示す。
画像分類、オブジェクト検出、セマンティックセグメンテーションの実験により、H-GPEはFLOPとパラメータのバランスの取れたフットプリントを維持しながら、高いパフォーマンスを実現し、最近の最先端軽量モデルと比較して、より良好な精度と効率のトレードオフを提供することが示された。
- 参考スコア(独自算出の注目度): 8.505472042732375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lightweight vision networks have witnessed remarkable progress in recent years, yet achieving a satisfactory balance among parameter scale, computational overhead, and task performance remains difficult. Although many existing lightweight models manage to reduce computation considerably, they often do so at the expense of a substantial increase in parameter count (e.g., LSNet, MobileMamba), which still poses obstacles for deployment on resource-limited devices. In parallel, some studies attempt to draw inspiration from human visual perception, but their modeling tends to oversimplify the visual process, making it hard to reflect how perception truly operates. Revisiting the cooperative mechanism of the human visual system, we propose GPM (Global-to-Parallel Multi-scale Encoding). GPM first employs a Global Insight Generator (GIG) to extract holistic cues, and subsequently processes features of different scales through parallel branches: LSAE emphasizes mid-/large-scale semantic relations, while IRB (Inverted Residual Block) preserves fine-grained texture information, jointly enabling coherent representation of global and local features. As such, GPM conforms to two characteristic behaviors of human vision perceiving the whole before focusing on details, and maintaining broad contextual awareness even during local attention. Built upon GPM, we further develop the lightweight H-GPE network. Experiments on image classification, object detection, and semantic segmentation show that H-GPE achieves strong performance while maintaining a balanced footprint in both FLOPs and parameters, delivering a more favorable accuracy-efficiency trade-off compared with recent state-of-the-art lightweight models.
- Abstract(参考訳): 近年、軽量ビジョンネットワークは目覚ましい進歩を遂げているが、パラメータスケール、計算オーバーヘッド、タスクパフォーマンスのバランスは良好である。
既存の軽量モデルは計算量を大幅に削減するが、リソース制限されたデバイスへの配置に障害を生じさせるパラメータ数(LSNet、MobileMambaなど)を大幅に増加させるため、しばしばそうする。
並行して、人間の視覚知覚からインスピレーションを引き出そうとする研究もあるが、そのモデリングは視覚過程を単純化する傾向があり、知覚が実際にどのように機能するかを反映することは困難である。
GPM(Global-to-Parallel Multi-scale Encoding)を提案する。
GPMはまずGlobal Insight Generator(GIG)を使用して、全体的手がかりを抽出し、その後、並列ブランチを通じて異なるスケールの特徴を処理します。
このように、GPMは、細部に集中する前に全体を認識する人間の視覚の2つの特徴的行動に適合し、局所的な注意を払っても広い文脈的意識を維持する。
GPM上に構築された軽量H-GPEネットワークをさらに発展させる。
画像分類、オブジェクト検出、セマンティックセグメンテーションの実験により、H-GPEはFLOPとパラメータのバランスの取れたフットプリントを維持しながら、高いパフォーマンスを実現し、最近の最先端軽量モデルと比較して、より良好な精度と効率のトレードオフを提供することが示された。
関連論文リスト
- DiG: Differential Grounding for Enhancing Fine-Grained Perception in Multimodal Large Language Model [22.28268642142352]
DiG (Differential Grounding) は、MLLM がより詳細な認識を学習する新しいプロキシ・タスク・フレームワークである。
この結果は,MLLMの微細な視覚的推論を向上するための,スケーラブルで堅牢なアプローチとして,微分接地に注目した。
論文 参考訳(メタデータ) (2025-12-14T10:40:27Z) - GCRPNet: Graph-Enhanced Contextual and Regional Perception Network for Salient Object Detection in Optical Remote Sensing Images [68.33481681452675]
本稿では,GCRPNet(Graph-enhanced contextual and Regional Recognition Network)を提案する。
これはMambaアーキテクチャの上に構築され、長距離依存関係を同時にキャプチャし、地域的特徴表現を強化する。
マルチスケールの畳み込みによって処理される特徴マップに対して適応的なパッチスキャンを行い、リッチなローカル領域情報をキャプチャする。
論文 参考訳(メタデータ) (2025-08-14T11:31:43Z) - LGM-Pose: A Lightweight Global Modeling Network for Real-time Human Pose Estimation [14.20517652381698]
これらの課題に対処するために,シングルブランチ軽量グローバルモデリングネットワーク (LGM-Pose) が提案されている。
このネットワークでは、軽量なMobileViMブロックが、LARM(Lightweight Attentional Representation Module)として提案されている。
論文 参考訳(メタデータ) (2025-06-05T02:29:04Z) - LeMoRe: Learn More Details for Lightweight Semantic Segmentation [48.81126061219231]
計算効率と表現の忠実さのバランスをとるために、明示的および暗黙的なモデリングを相乗化することによって効率的なパラダイムを導入する。
提案手法は、明確にモデル化されたビューと暗黙的に推論された中間表現とをうまく組み合わせ、グローバルな依存関係を効率的に取得する。
論文 参考訳(メタデータ) (2025-05-29T04:55:10Z) - LSNet: See Large, Focus Small [67.05569159984691]
我々は,大カーネル認識と小カーネル集約を組み合わせたLS(textbfLarge-textbfSmall)畳み込みを導入する。
LSNetは、様々な視覚タスクにおいて、既存の軽量ネットワークよりも優れた性能と効率を実現する。
論文 参考訳(メタデータ) (2025-03-29T16:00:54Z) - vGamba: Attentive State Space Bottleneck for efficient Long-range Dependencies in Visual Recognition [0.0]
状態空間モデル(SSM)は代替手段を提供するが、視界での応用は未定である。
この研究は、効率性と表現性を高めるために、SSMと注意機構を統合するハイブリッドビジョンバックボーンであるvGambaを導入している。
分類、検出、セグメンテーションタスクのテストでは、vGambaは精度と計算効率のトレードオフが優れており、既存のモデルよりも優れていることが示されている。
論文 参考訳(メタデータ) (2025-03-27T08:39:58Z) - Global Semantic-Guided Sub-image Feature Weight Allocation in High-Resolution Large Vision-Language Models [50.98559225639266]
画像全体の意味的関連性が高いサブイメージは、モデルの視覚的理解能力を維持するためによりリッチな視覚情報をカプセル化する。
Global Semantic-Guided Weight Allocator (GSWA)モジュールはその相対情報密度に基づいてサブイメージに重みを割り当てる。
SleighVLは軽量だがハイパフォーマンスなモデルであり、同等のパラメータを持つモデルよりも優れており、より大きなモデルと競合し続けている。
論文 参考訳(メタデータ) (2025-01-24T06:42:06Z) - Brain-Inspired Stepwise Patch Merging for Vision Transformers [6.108377966393714]
本稿では、その後の注意機構をよりよく見る能力を高めるステップワイド・パッチ・マージ(SPM)を提案する。
コードはhttps://github.com/Yonghao-Yu/StepwisePatchMerging.comでリリースされた。
論文 参考訳(メタデータ) (2024-09-11T03:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。