論文の概要: ELMformer: Efficient Raw Image Restoration with a Locally Multiplicative
Transformer
- arxiv url: http://arxiv.org/abs/2208.14704v1
- Date: Wed, 31 Aug 2022 09:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:26:20.983390
- Title: ELMformer: Efficient Raw Image Restoration with a Locally Multiplicative
Transformer
- Title(参考訳): ELMformer:局所乗算変換器を用いた効率的な生画像復元
- Authors: Jiaqi Ma, Shengyuan Yan, Lefei Zhang, Guoli Wang, Qian Zhang
- Abstract要約: 原画像復元のための効率的な局所乗算変換器EMMformerを提案する。
ELMformerは最高の性能を達成し、生のデノジングと生のデブロアリングベンチマークで最低のFLOPを維持できる。
- 参考スコア(独自算出の注目度): 28.400412441430696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In order to get raw images of high quality for downstream Image Signal
Process (ISP), in this paper we present an Efficient Locally Multiplicative
Transformer called ELMformer for raw image restoration. ELMformer contains two
core designs especially for raw images whose primitive attribute is
single-channel. The first design is a Bi-directional Fusion Projection (BFP)
module, where we consider both the color characteristics of raw images and
spatial structure of single-channel. The second one is that we propose a
Locally Multiplicative Self-Attention (L-MSA) scheme to effectively deliver
information from the local space to relevant parts. ELMformer can efficiently
reduce the computational consumption and perform well on raw image restoration
tasks. Enhanced by these two core designs, ELMformer achieves the highest
performance and keeps the lowest FLOPs on raw denoising and raw deblurring
benchmarks compared with state-of-the-arts. Extensive experiments demonstrate
the superiority and generalization ability of ELMformer. On SIDD benchmark, our
method has even better denoising performance than ISP-based methods which need
huge amount of additional sRGB training images. The codes are release at
https://github.com/leonmakise/ELMformer.
- Abstract(参考訳): 本稿では, 下流画像信号処理(ISP)の高品質な原画像を得るために, ELMformer と呼ばれる効率的な局所多重変換器を提案する。
ELMformerは、特にプリミティブ属性がシングルチャネルである生画像のための2つのコア設計を含んでいる。
最初の設計は双方向核融合(BFP)モジュールで、原画像の色特性と単一チャネルの空間構造の両方を考慮する。
2つめは,局所的な乗法的自己アテンション(l-msa)スキームを提案し,局所空間から関連部分へ情報を効果的に伝達する。
ELMformerは、効率よく計算消費を削減し、生画像復元タスクでよく機能する。
これら2つのコア設計によって強化されたelmformerは、最先端のベンチマークと比較して、最も高いパフォーマンスを達成し、生のデノイジングと生のデブラリングベンチマークで最低のフラップを保持する。
ELMformerの優位性と一般化能力を示す実験が盛んである。
SIDD ベンチマークでは,ISP ベースの手法よりも,さらに多くの sRGB トレーニング画像を必要とする性能が向上している。
コードはhttps://github.com/leonmakise/elmformerでリリースされる。
関連論文リスト
- Look-Around Before You Leap: High-Frequency Injected Transformer for Image Restoration [46.96362010335177]
本稿では,画像復元のための簡易かつ効果的な高周波インジェクト変換器HITを提案する。
具体的には,機能マップに高頻度の詳細を組み込んだウィンドウワイドインジェクションモジュール(WIM)を設計し,高品質な画像の復元のための信頼性の高い参照を提供する。
さらに,BIMにおけるチャネル次元の計算によって失われる可能性のある空間的関係を維持するために,空間拡張ユニット(SEU)を導入する。
論文 参考訳(メタデータ) (2024-03-30T08:05:00Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Learning to See Low-Light Images via Feature Domain Adaptation [17.033219611079165]
そこで我々は,特徴領域適応(FDA)によって強化された単一段階ネットワークを提案し,生のLLIEにおけるデノイングとカラーマッピングのタスクを分離する。
FDAは、ラインバッファを減らすことで、グローバルとローカルの相関関係を探索することができる。
本手法は,計算コストを削減して最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T03:38:26Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Rethinking the Paradigm of Content Constraints in Unpaired
Image-to-Image Translation [9.900050049833986]
本稿では,パッチレベルの特徴の潜在空間における表現的類似性を制約することにより,コンテンツ管理のシンプルかつ効率的な方法であるEnCoを提案する。
類似性関数に対しては、I2Iタスクで広く使われている対照的な損失ではなく、単純なMSE損失を用いる。
さらに, 識別者によるサンプリングにおける役割を再考し, ランダムサンプリングの代替として, DAG(Disdisnative attention-guided)パッチサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2022-11-20T04:39:57Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Highly Efficient Natural Image Matting [15.977598189574659]
軽量モデルを用いたトリマップフリーな自然画像マッチング手法を提案する。
非常に軽量なモデルを構築し、人気のある自然画像ベンチマーク上で1% (344k) の大規模モデルで同等の性能を実現する。
論文 参考訳(メタデータ) (2021-10-25T09:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。