論文の概要: A super-resolution reconstruction method for lightweight building images based on an expanding feature modulation network
- arxiv url: http://arxiv.org/abs/2503.13179v1
- Date: Mon, 17 Mar 2025 13:54:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:09.359548
- Title: A super-resolution reconstruction method for lightweight building images based on an expanding feature modulation network
- Title(参考訳): 拡張特性変調ネットワークに基づく軽量建築画像の超解像再構成法
- Authors: Yi Zhang, Wenye Zhou, Ruonan Lin,
- Abstract要約: 本研究では,Dilated Contextual Feature Modulation Network (DCFMN) を用いた画像超解像の軽量化手法を提案する。
DCFMNは、拡張分離可能な変調ユニットと局所特徴拡張モジュールを統合する。
このアプローチは、長距離依存関係のモデリングにおいて、既存の軽量超解像ネットワークの制限を効果的に解決する。
- 参考スコア(独自算出の注目度): 3.434624857389692
- License:
- Abstract: This study proposes a lightweight method for building image super-resolution using a Dilated Contextual Feature Modulation Network (DCFMN). The process includes obtaining high-resolution images, down-sampling them to low-resolution, enhancing the low-resolution images, constructing and training a lightweight network model, and generating super-resolution outputs. To address challenges such as regular textures and long-range dependencies in building images, the DCFMN integrates an expansion separable modulation unit and a local feature enhancement module. The former employs multiple expansion convolutions equivalent to a large kernel to efficiently aggregate multi-scale features while leveraging a simple attention mechanism for adaptivity. The latter encodes local features, mixes channel information, and ensures no additional computational burden during inference through reparameterization. This approach effectively resolves the limitations of existing lightweight super-resolution networks in modeling long-range dependencies, achieving accurate and efficient global feature modeling without increasing computational costs, and significantly improving both reconstruction quality and lightweight efficiency for building image super-resolution models.
- Abstract(参考訳): 本研究では,Dilated Contextual Feature Modulation Network (DCFMN) を用いた画像超解像の軽量化手法を提案する。
このプロセスは、高解像度画像の取得、低解像度画像へのダウンサンプリング、低解像度画像の強化、軽量ネットワークモデルの構築とトレーニング、超高解像度出力の生成を含む。
ビルドイメージにおける通常のテクスチャや長距離依存といった課題に対処するため、DCFMNは拡張分離可能な変調ユニットと局所的特徴拡張モジュールを統合している。
前者は、大規模カーネルに相当する複数の拡張畳み込みを使用して、適応性に単純な注意機構を活用しながら、マルチスケールの特徴を効率的に集約する。
後者は局所的な特徴を符号化し、チャネル情報を混在させ、再パラメータ化による推論中に余分な計算負担を生じさせないようにする。
提案手法は, 画像超解像モデルの構築において, 既存の軽量超解像ネットワークの制約を効果的に解決し, 計算コストを増大させることなく, 高精度で効率的なグローバルな特徴モデリングを実現し, 再現性および軽量化の両面を著しく改善する。
関連論文リスト
- $\text{S}^{3}$Mamba: Arbitrary-Scale Super-Resolution via Scaleable State Space Model [45.65903826290642]
ASSRは、1つのモデルを用いて、任意のスケールで低解像度画像を高解像度画像に超解き放つことを目的としている。
拡張性のある連続表現空間を構築するために,$textS3$Mambaと呼ばれる新しい任意のスケール超解法を提案する。
論文 参考訳(メタデータ) (2024-11-16T11:13:02Z) - IRSRMamba: Infrared Image Super-Resolution via Mamba-based Wavelet Transform Feature Modulation Model [7.842507196763463]
IRSRMambaはマルチスケール適応のためのウェーブレット変換特徴変調を統合する新しいフレームワークである。
IRSRMambaはPSNR、SSIM、知覚品質において最先端の手法より優れている。
この研究は、高忠実度赤外線画像強調のための有望な方向として、Mambaベースのアーキテクチャを確立する。
論文 参考訳(メタデータ) (2024-05-16T07:49:24Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Low-Resolution Self-Attention for Semantic Segmentation [93.30597515880079]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - Implicit Diffusion Models for Continuous Super-Resolution [65.45848137914592]
本稿では,高忠実度連続画像超解像のためのインプリシティ拡散モデル(IDM)を提案する。
IDMは暗黙のニューラル表現とデノナイジング拡散モデルを統合されたエンドツーエンドフレームワークに統合する。
スケーリング係数は分解能を調節し、最終出力におけるLR情報と生成された特徴の比率を変調する。
論文 参考訳(メタデータ) (2023-03-29T07:02:20Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Lightweight Image Enhancement Network for Mobile Devices Using
Self-Feature Extraction and Dense Modulation [0.9911248259437542]
低解像度の入力画像から細部、テクスチャ、構造情報を復元するために、軽量画像強調ネットワークを提案する。
提案するネットワークは,低画質画像から変調パラメータを生成する自己特徴抽出モジュールを含む。
実験結果は,定量評価と定性評価の両方の観点から,既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-05-02T12:35:08Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。