論文の概要: Semantic-Guided Global-Local Collaborative Networks for Lightweight Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2503.16056v1
- Date: Thu, 20 Mar 2025 11:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:53.701815
- Title: Semantic-Guided Global-Local Collaborative Networks for Lightweight Image Super-Resolution
- Title(参考訳): 軽量画像超解像のための意味誘導型グローバルローカル協調ネットワーク
- Authors: Wanshu Fan, Yue Wang, Cong Wang, Yunzhe Zhang, Wei Wang, Dongsheng Zhou,
- Abstract要約: 単画像超解像(SISR)は測定システムの精度と信頼性を高める上で重要な役割を担っている。
軽量SISRのためのSGGLC-Net(Semantic-Guided Global-Local Collaborative Network)を提案する。
- 参考スコア(独自算出の注目度): 9.666827340439669
- License:
- Abstract: Single-Image Super-Resolution (SISR) plays a pivotal role in enhancing the accuracy and reliability of measurement systems, which are integral to various vision-based instrumentation and measurement applications. These systems often require clear and detailed images for precise object detection and recognition. However, images captured by visual measurement tools frequently suffer from degradation, including blurring and loss of detail, which can impede measurement accuracy.As a potential remedy, we in this paper propose a Semantic-Guided Global-Local Collaborative Network (SGGLC-Net) for lightweight SISR. Our SGGLC-Net leverages semantic priors extracted from a pre-trained model to guide the super-resolution process, enhancing image detail quality effectively. Specifically,we propose a Semantic Guidance Module that seamlessly integrates the semantic priors into the super-resolution network, enabling the network to more adeptly capture and utilize semantic priors, thereby enhancing image details. To further explore both local and non-local interactions for improved detail rendition,we propose a Global-Local Collaborative Module, which features three Global and Local Detail Enhancement Modules, as well as a Hybrid Attention Mechanism to work together to efficiently learn more useful features. Our extensive experiments show that SGGLC-Net achieves competitive PSNR and SSIM values across multiple benchmark datasets, demonstrating higher performance with the multi-adds reduction of 12.81G compared to state-of-the-art lightweight super-resolution approaches. These improvements underscore the potential of our approach to enhance the precision and effectiveness of visual measurement systems. Codes are at https://github.com/fanamber831/SGGLC-Net.
- Abstract(参考訳): 単一画像超解像(SISR)は、様々な視覚計測・計測応用に不可欠な計測システムの精度と信頼性を高める上で重要な役割を担っている。
これらのシステムは、しばしば正確な物体の検出と認識のために明確で詳細な画像を必要とする。
しかし,視覚計測ツールによって撮影された画像は,ぼかしや詳細の喪失などの劣化に悩まされ,測定精度を損なうおそれがあるため,本論文では,SGGLC-Net(Semantic-Guided Global-Local Collaborative Network)を軽量SISR用として提案する。
我々のSGGLC-Netは、事前訓練されたモデルから抽出したセマンティック先行情報を利用して超解像過程を導出し、画像の細部品質を効果的に向上する。
具体的には,セマンティック・ガイダンス・モジュールを提案する。セマンティック・ガイダンス・モジュールは,セマンティック・プリエンス・ネットワークをシームレスに統合し,セマンティック・プリエンス・ネットワークをより正確に捕捉し,セマンティック・プリエンス・オーディエンスを利用できるようにする。
局所的および非局所的相互作用の両面を詳細に検討し,より有用な特徴を効果的に学習するハイブリッドアテンション機構とともに,3つのグローバル・ローカル・コラボレーティブ・モジュールを特徴とするグローバル・ローカル・コラボレーティブ・モジュールを提案する。
SGGLC-Netは、複数のベンチマークデータセット間で競合するPSNRとSSIMの値を達成し、最先端の軽量超解像アプローチと比較して、マルチ加算の12.81Gで高い性能を示す。
これらの改善は,視覚計測システムの精度と有効性を高めるためのアプローチの可能性を示すものである。
コードはhttps://github.com/fanamber831/SGGLC-Netにある。
関連論文リスト
- Global Semantic-Guided Sub-image Feature Weight Allocation in High-Resolution Large Vision-Language Models [50.98559225639266]
画像全体の意味的関連性が高いサブイメージは、モデルの視覚的理解能力を維持するためによりリッチな視覚情報をカプセル化する。
Global Semantic-Guided Weight Allocator (GSWA)モジュールはその相対情報密度に基づいてサブイメージに重みを割り当てる。
SleighVLは軽量だがハイパフォーマンスなモデルであり、同等のパラメータを持つモデルよりも優れており、より大きなモデルと競合し続けている。
論文 参考訳(メタデータ) (2025-01-24T06:42:06Z) - LWGANet: A Lightweight Group Attention Backbone for Remote Sensing Visual Tasks [20.924609707499915]
この記事では、RS視覚タスクに適した専用の軽量バックボーンネットワークであるLWGANetを紹介する。
RS画像用に調整されたLWGAモジュールは、冗長な特徴を利用して幅広い空間情報を抽出する。
その結果、LWGANetの広範な適用性と、高性能と低複雑性の最適なバランスを維持する能力が確認された。
論文 参考訳(メタデータ) (2025-01-17T08:56:17Z) - Sewer Image Super-Resolution with Depth Priors and Its Lightweight Network [11.13549330516683]
クイックビュー(QV)技術は下水道システム内の欠陥を検出する主要な方法である。
超解像度は画像品質を改善する効果的な方法であり、様々な場面で応用されている。
本研究では, DSRNet で表される新しい深層誘導参照型超解法フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-27T14:45:34Z) - RS-Mamba for Large Remote Sensing Image Dense Prediction [58.12667617617306]
本稿では,大規模なVHRリモートセンシング画像における高密度予測タスクに対するリモートセンシング・マンバ(RSM)を提案する。
RSMは、線形複雑度でリモートセンシング画像のグローバルなコンテキストを捉えるように設計されている。
我々のモデルは、大規模なリモートセンシング画像の変換器ベースモデルよりも効率と精度がよい。
論文 参考訳(メタデータ) (2024-04-03T12:06:01Z) - Attention Guided Network for Salient Object Detection in Optical Remote
Sensing Images [16.933770557853077]
光リモートセンシング画像(RSI-SOD)における局所物体検出は非常に難しい作業である。
本稿では,光学RSIにおけるSODのための新しい注意誘導ネットワーク(AGNet)を提案する。
AGNetは、他の最先端の手法と比較して、競争力がある。
論文 参考訳(メタデータ) (2022-07-05T01:01:03Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images [108.79667788962425]
光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
論文 参考訳(メタデータ) (2021-12-02T04:46:40Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。