論文の概要: Lightweight Image Enhancement Network for Mobile Devices Using
Self-Feature Extraction and Dense Modulation
- arxiv url: http://arxiv.org/abs/2205.00853v1
- Date: Mon, 2 May 2022 12:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:35:48.964936
- Title: Lightweight Image Enhancement Network for Mobile Devices Using
Self-Feature Extraction and Dense Modulation
- Title(参考訳): 自己特徴抽出とDense Modulationを用いたモバイルデバイス用軽量画像強調ネットワーク
- Authors: Sangwook Baek, Yongsup Park, Youngo Park, Jungmin Lee, and Kwangpyo
Choi
- Abstract要約: 低解像度の入力画像から細部、テクスチャ、構造情報を復元するために、軽量画像強調ネットワークを提案する。
提案するネットワークは,低画質画像から変調パラメータを生成する自己特徴抽出モジュールを含む。
実験結果は,定量評価と定性評価の両方の観点から,既存手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.9911248259437542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural network (CNN) based image enhancement methods such as
super-resolution and detail enhancement have achieved remarkable performances.
However, amounts of operations including convolution and parameters within the
networks cost high computing power and need huge memory resource, which limits
the applications with on-device requirements. Lightweight image enhancement
network should restore details, texture, and structural information from
low-resolution input images while keeping their fidelity. To address these
issues, a lightweight image enhancement network is proposed. The proposed
network include self-feature extraction module which produces modulation
parameters from low-quality image itself, and provides them to modulate the
features in the network. Also, dense modulation block is proposed for unit
block of the proposed network, which uses dense connections of concatenated
features applied in modulation layers. Experimental results demonstrate better
performance over existing approaches in terms of both quantitative and
qualitative evaluations.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)に基づく超解像やディテールエンハンスメントなどの画像強調手法は、優れた性能を達成している。
しかし、畳み込みやパラメータを含むネットワーク内の操作の量は計算能力が高く、デバイス上で要求されるアプリケーションを制限する巨大なメモリリソースを必要とする。
軽量画像強調ネットワークは、忠実性を維持しつつ、低解像度入力画像から詳細、テクスチャ、構造情報を復元する必要がある。
この問題に対処するため,軽量画像強調ネットワークを提案する。
提案するネットワークは、低品質の画像自体から変調パラメータを生成し、ネットワークの特徴を変調する自己特徴抽出モジュールを含む。
また,変調層に適用される連結特徴の密結合を用いた,提案ネットワークの単位ブロックに対して,高密度変調ブロックを提案する。
実験結果は,定量評価と定性評価の両方の観点から,既存手法よりも優れた性能を示した。
関連論文リスト
- VmambaIR: Visual State Space Model for Image Restoration [36.11385876754612]
VmambaIRは、画像復元タスクに線形に複雑な状態空間モデル(SSM)を導入する。
VmambaIRは、より少ない計算資源とパラメータで最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2024-03-18T02:38:55Z) - Adaptive Convolutional Neural Network for Image Super-resolution [43.06377001247278]
画像超解像のための適応畳み込みニューラルネットワーク(ADSRNet)を提案する。
上層ネットワークは、コンテキスト情報、カーネルマッピングの健全な情報関係、浅い層と深い層の関連性を高めることができる。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - Deep Networks for Image and Video Super-Resolution [30.75380029218373]
単一画像超解像(SISR)は、MDCB(Mixed-Dense connection block)と呼ばれる効率的な畳み込みユニットを用いて構築される。
ネットワークの2つのバージョンをトレーニングし、異なる損失構成を用いて相補的な画像品質を向上させる。
ネットワークは複数のフレームから情報を集約し,時間的整合性を維持するために学習する。
論文 参考訳(メタデータ) (2022-01-28T09:15:21Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - Image deblurring based on lightweight multi-information fusion network [6.848061582669787]
画像デブロアリングのための軽量多情報融合ネットワーク(LMFN)を提案する。
符号化段階では、画像特徴は、マルチスケール情報抽出および融合のための様々な小規模空間に還元される。
その後、デコード段階で蒸留ネットワークが使用され、ネットワークは残留学習から最も利益を得ます。
私たちのネットワークは、少ないパラメータで最新の画像破壊結果を達成し、モデルの複雑さで既存の方法を上回ることができます。
論文 参考訳(メタデータ) (2021-01-14T00:37:37Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。