論文の概要: LIR: A Lightweight Baseline for Image Restoration
- arxiv url: http://arxiv.org/abs/2402.01368v3
- Date: Mon, 24 Jun 2024 06:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 02:11:02.844930
- Title: LIR: A Lightweight Baseline for Image Restoration
- Title(参考訳): LIR:画像復元のための軽量ベースライン
- Authors: Dongqi Fan, Ting Yue, Xin Zhao, Renjing Xu, Liang Chang,
- Abstract要約: 画像復元作業の本質的な特徴は、多くの作品で見落とされがちである。
LIRと呼ばれる画像復元のための軽量ベースラインネットワークを提案し、画像の効率よく復元し、劣化を除去する。
我々のLIRは、Pak Signal-to-Noise Ratio (PSNR)における最先端構造類似度指標(SSIM)および最先端モデルに匹敵する性能を達成する。
- 参考スコア(独自算出の注目度): 4.187190284830909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there have been significant advancements in Image Restoration based on CNN and transformer. However, the inherent characteristics of the Image Restoration task are often overlooked in many works. They, instead, tend to focus on the basic block design and stack numerous such blocks to the model, leading to parameters redundant and computations unnecessary. Thus, the efficiency of the image restoration is hindered. In this paper, we propose a Lightweight Baseline network for Image Restoration called LIR to efficiently restore the image and remove degradations. First of all, through an ingenious structural design, LIR removes the degradations existing in the local and global residual connections that are ignored by modern networks. Then, a Lightweight Adaptive Attention (LAA) Block is introduced which is mainly composed of proposed Adaptive Filters and Attention Blocks. The proposed Adaptive Filter is used to adaptively extract high-frequency information and enhance object contours in various IR tasks, and Attention Block involves a novel Patch Attention module to approximate the self-attention part of the transformer. On the deraining task, our LIR achieves the state-of-the-art Structure Similarity Index Measure (SSIM) and comparable performance to state-of-the-art models on Peak Signal-to-Noise Ratio (PSNR). For denoising, dehazing, and deblurring tasks, LIR also achieves a comparable performance to state-of-the-art models with a parameter size of about 30\%. In addition, it is worth noting that our LIR produces better visual results that are more in line with the human aesthetic.
- Abstract(参考訳): 近年,CNNとトランスフォーマーをベースとした画像復元が大幅に進歩している。
しかし、画像復元作業の本質的な特徴は、多くの作品で見落とされがちである。
代わりに、基本的なブロック設計に集中し、そのようなブロックをモデルに積み重ねる傾向があり、パラメータが冗長になり、計算が不要になる。
これにより、画像復元の効率が損なわれる。
本稿では, 画像復元のための軽量ベースラインネットワーク LIR を提案し, 画像の効率よく復元し, 劣化を除去する。
まず、創発的な構造設計により、LIRは現代のネットワークで無視される局所的および大域的残差接続に存在する劣化を取り除く。
次に、主に提案する適応フィルタとアテンションブロックからなる軽量適応アテンションブロック(LAA)を導入する。
提案したアダプティブフィルタは、高周波情報を適応的に抽出し、様々なIRタスクにおけるオブジェクトの輪郭を拡大するために使用され、アテンションブロックは、トランスの自己保持部を近似する新しいパッチアテンションモジュールを含む。
評価課題において,我々のLIRは最先端構造類似度指標(SSIM)とPak Signal-to-Noise Ratio(PSNR)の最先端モデルに匹敵する性能を達成している。
タスクのデノイング、デハージング、デブロアリングでは、パラメータサイズが約30\%の最先端モデルに匹敵するパフォーマンスを実現している。
さらに、我々のLIRは、人間の美学とより一致したより良い視覚結果を生み出すことに注意する必要がある。
関連論文リスト
- UniRestore: Unified Perceptual and Task-Oriented Image Restoration Model Using Diffusion Prior [56.35236964617809]
画像復元は、悪天候、ぼやけ、騒音などの様々な要因によって劣化した入力からコンテンツを回復することを目的としている。
本稿では,PIRとTIRのギャップを埋める統一画像復元モデルUniRestoreを紹介する。
本稿では,分解エンコーダの特徴を再構築するための補足的特徴回復モジュール (CFRM) と,デコーダの適応的特徴融合を容易にするタスク特徴適応モジュール (TFA) を提案する。
論文 参考訳(メタデータ) (2025-01-22T08:06:48Z) - Rethinking Model Redundancy for Low-light Image Enhancement [21.864075752556452]
低照度画像強調(LLIE)は、照明の改善、ノイズ低減、低照度画像の画質向上を目的とした、計算写真の基本的な課題である。
最近の進歩は、主に複雑なニューラルネットワークモデルのカスタマイズに焦点が当てられているが、これらのモデルには大きな冗長性があり、さらなる性能改善が制限されている。
この再考に触発されて,LLIE性能を改善しながらモデル冗長性を緩和する2つの革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-12-21T03:17:28Z) - Plug-and-Play Tri-Branch Invertible Block for Image Rescaling [11.457556028893329]
高分解能(HR)画像は通常、帯域幅を減らすために低分解能(LR)にダウンスケールされ、続いて元の細部をアップスケールして復元する。
画像再スケーリングアルゴリズムの最近の進歩は、ダウンスケーリングとアップスケーリングのための統一されたフレームワークを作成するために、非可逆ニューラルネットワーク(INN)を使用している。
本稿では、低周波分岐を輝度(Y)と輝度(CbCr)に分解するプラグアンドプレイ三分岐可逆ブロック(T-InvBlocks)を提案する。
論文 参考訳(メタデータ) (2024-12-18T05:14:13Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Image Reconstruction using Enhanced Vision Transformer [0.08594140167290097]
画像のデノイング,デブロアリング,インペイントといったタスクに使用できる新しい画像再構成フレームワークを提案する。
このプロジェクトで提案されるモデルは、2次元画像を入力として取り込んで埋め込みを出力するビジョントランスフォーマー(ViT)に基づいている。
モデル再構築機能を改善するために,フレームワークに4つの最適化手法を組み込んだ。
論文 参考訳(メタデータ) (2023-07-11T02:14:18Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Efficient Re-parameterization Residual Attention Network For
Nonhomogeneous Image Dehazing [4.723586858098229]
ERRA-Netは1200x1600のHD画質の画像を平均166.11 fpsで処理する。
我々は, ステップ毎に高周波特徴を抽出するために, カスケードMAブロックを用い, 多層アテンション融合テールは, モデルの浅部と深部を結合してクリーン画像の残像を得る。
論文 参考訳(メタデータ) (2021-09-12T10:03:44Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。