論文の概要: Lightweight Image Enhancement Network for Mobile Devices Using
Self-Feature Extraction and Dense Modulation
- arxiv url: http://arxiv.org/abs/2205.00853v1
- Date: Mon, 2 May 2022 12:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:35:48.964936
- Title: Lightweight Image Enhancement Network for Mobile Devices Using
Self-Feature Extraction and Dense Modulation
- Title(参考訳): 自己特徴抽出とDense Modulationを用いたモバイルデバイス用軽量画像強調ネットワーク
- Authors: Sangwook Baek, Yongsup Park, Youngo Park, Jungmin Lee, and Kwangpyo
Choi
- Abstract要約: 低解像度の入力画像から細部、テクスチャ、構造情報を復元するために、軽量画像強調ネットワークを提案する。
提案するネットワークは,低画質画像から変調パラメータを生成する自己特徴抽出モジュールを含む。
実験結果は,定量評価と定性評価の両方の観点から,既存手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.9911248259437542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural network (CNN) based image enhancement methods such as
super-resolution and detail enhancement have achieved remarkable performances.
However, amounts of operations including convolution and parameters within the
networks cost high computing power and need huge memory resource, which limits
the applications with on-device requirements. Lightweight image enhancement
network should restore details, texture, and structural information from
low-resolution input images while keeping their fidelity. To address these
issues, a lightweight image enhancement network is proposed. The proposed
network include self-feature extraction module which produces modulation
parameters from low-quality image itself, and provides them to modulate the
features in the network. Also, dense modulation block is proposed for unit
block of the proposed network, which uses dense connections of concatenated
features applied in modulation layers. Experimental results demonstrate better
performance over existing approaches in terms of both quantitative and
qualitative evaluations.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)に基づく超解像やディテールエンハンスメントなどの画像強調手法は、優れた性能を達成している。
しかし、畳み込みやパラメータを含むネットワーク内の操作の量は計算能力が高く、デバイス上で要求されるアプリケーションを制限する巨大なメモリリソースを必要とする。
軽量画像強調ネットワークは、忠実性を維持しつつ、低解像度入力画像から詳細、テクスチャ、構造情報を復元する必要がある。
この問題に対処するため,軽量画像強調ネットワークを提案する。
提案するネットワークは、低品質の画像自体から変調パラメータを生成し、ネットワークの特徴を変調する自己特徴抽出モジュールを含む。
また,変調層に適用される連結特徴の密結合を用いた,提案ネットワークの単位ブロックに対して,高密度変調ブロックを提案する。
実験結果は,定量評価と定性評価の両方の観点から,既存手法よりも優れた性能を示した。
関連論文リスト
- A Heterogeneous Dynamic Convolutional Neural Network for Image
Super-resolution [111.97970576223622]
画像超解像(HDSRNet)における異種動的畳み込みネットワークを提案する。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
実験結果から,HDSRNetは画像解決に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - Image super-resolution via dynamic network [20.817574727873254]
画像超解像(DSRNet)のための動的ネットワークを提案する。
残余の増築ブロック、広範囲の増築ブロック、特徴の増築ブロック、建設ブロックを含む。
画像の超解像と複雑性の回復時間に関して,本手法はより競争力がある。
論文 参考訳(メタデータ) (2023-10-16T13:56:56Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - Deep Networks for Image and Video Super-Resolution [30.75380029218373]
単一画像超解像(SISR)は、MDCB(Mixed-Dense connection block)と呼ばれる効率的な畳み込みユニットを用いて構築される。
ネットワークの2つのバージョンをトレーニングし、異なる損失構成を用いて相補的な画像品質を向上させる。
ネットワークは複数のフレームから情報を集約し,時間的整合性を維持するために学習する。
論文 参考訳(メタデータ) (2022-01-28T09:15:21Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - Image deblurring based on lightweight multi-information fusion network [6.848061582669787]
画像デブロアリングのための軽量多情報融合ネットワーク(LMFN)を提案する。
符号化段階では、画像特徴は、マルチスケール情報抽出および融合のための様々な小規模空間に還元される。
その後、デコード段階で蒸留ネットワークが使用され、ネットワークは残留学習から最も利益を得ます。
私たちのネットワークは、少ないパラメータで最新の画像破壊結果を達成し、モデルの複雑さで既存の方法を上回ることができます。
論文 参考訳(メタデータ) (2021-01-14T00:37:37Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。