論文の概要: Deep-Masking Generative Network: A Unified Framework for Background
Restoration from Superimposed Images
- arxiv url: http://arxiv.org/abs/2010.04324v2
- Date: Mon, 12 Apr 2021 09:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:40:03.835831
- Title: Deep-Masking Generative Network: A Unified Framework for Background
Restoration from Superimposed Images
- Title(参考訳): Deep-Masking Generative Network: 重ね合わせ画像からの背景復元のための統一フレームワーク
- Authors: Xin Feng, Wenjie Pei, Zihui Jia, Fanglin Chen, David Zhang, and
Guangming Lu
- Abstract要約: 本稿では,重畳画像からの背景復元のための統合フレームワークであるDeep-Masking Generative Network(DMGN)を提案する。
まず、粗い背景画像とノイズ画像とを並列に生成し、さらにノイズ画像を利用して背景画像を洗練する。
我々の実験によると、DMGNは各タスクに特化して設計された最先端の手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 36.7646332887842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Restoring the clean background from the superimposed images containing a
noisy layer is the common crux of a classical category of tasks on image
restoration such as image reflection removal, image deraining and image
dehazing. These tasks are typically formulated and tackled individually due to
the diverse and complicated appearance patterns of noise layers within the
image. In this work we present the Deep-Masking Generative Network (DMGN),
which is a unified framework for background restoration from the superimposed
images and is able to cope with different types of noise. Our proposed DMGN
follows a coarse-to-fine generative process: a coarse background image and a
noise image are first generated in parallel, then the noise image is further
leveraged to refine the background image to achieve a higher-quality background
image. In particular, we design the novel Residual Deep-Masking Cell as the
core operating unit for our DMGN to enhance the effective information and
suppress the negative information during image generation via learning a gating
mask to control the information flow. By iteratively employing this Residual
Deep-Masking Cell, our proposed DMGN is able to generate both high-quality
background image and noisy image progressively. Furthermore, we propose a
two-pronged strategy to effectively leverage the generated noise image as
contrasting cues to facilitate the refinement of the background image.
Extensive experiments across three typical tasks for image background
restoration, including image reflection removal, image rain steak removal and
image dehazing, show that our DMGN consistently outperforms state-of-the-art
methods specifically designed for each single task.
- Abstract(参考訳): ノイズ層を含む重畳された画像からクリーンな背景を復元することは、画像反射除去、画像デレーニング、画像デヘイジングなどの画像復元における古典的な課題の共通部分である。
これらのタスクは通常、画像内のノイズ層の多様で複雑な外観パターンのため、個別に定式化され、取り組まれる。
本稿では、重畳された画像から背景を復元するための統一的なフレームワークであるDeep-Masking Generative Network(DMGN)について述べる。
提案したDMGNは、粗い背景画像と粗いノイズ画像とを並列に生成し、さらにノイズ画像を利用して背景画像を洗練し、高品質な背景画像を実現する。
特に,dmgnのコア操作ユニットとして新規な残差ディープマスクセルを設計し,gating maskを学習して情報フローを制御することにより,有効情報を高め,画像生成中の負の情報を抑圧する。
この残差深層細胞を反復的に利用することにより,dmgnは高品質な背景画像とノイズ画像の両方を段階的に生成することができる。
さらに,生成した雑音画像をコントラストの手がかりとして効果的に活用し,背景画像の精細化を容易にする2段階戦略を提案する。
イメージリフレクション除去, レインステーキ除去, イメージデハージングを含む, 画像背景修復のための3つの典型的なタスクに対する大規模な実験により, DMGNは各タスクに特化して設計された最先端の手法を一貫して上回っていることがわかった。
関連論文リスト
- MRIR: Integrating Multimodal Insights for Diffusion-based Realistic Image Restoration [17.47612023350466]
マルチモーダルなインサイトを持つ拡散型復元法であるMRIRを提案する。
テキストレベルでは、訓練済みのマルチモーダル大言語モデルのパワーを利用して、低品質の画像から意味のある意味情報を推測する。
視覚レベルでは、主にピクセルレベルの制御に焦点を合わせ、Pixelレベルのプロセッサと制御ネットを用いて空間構造を制御する。
論文 参考訳(メタデータ) (2024-07-04T04:55:14Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - All-in-one Multi-degradation Image Restoration Network via Hierarchical
Degradation Representation [47.00239809958627]
我々は新しいオールインワン・マルチデグレーション画像復元ネットワーク(AMIRNet)を提案する。
AMIRNetは、クラスタリングによって木構造を段階的に構築することで、未知の劣化画像の劣化表現を学習する。
この木構造表現は、様々な歪みの一貫性と不一致を明示的に反映しており、画像復元の具体的な手がかりとなっている。
論文 参考訳(メタデータ) (2023-08-06T04:51:41Z) - Deep Iteration Assisted by Multi-level Obey-pixel Network Discriminator
(DIAMOND) for Medical Image Recovery [0.6719751155411076]
従来の反復型ネットワークと最新のディープネットワークの両方が注目されており、満足度の高い画像の再構成において大幅な改善がなされている。
本研究は,それらの利点を1つの統一数学的モデルに統合し,そのような問題に対処するための一般的な画像復元戦略を提案する。
論文 参考訳(メタデータ) (2021-02-08T16:57:33Z) - Dual Adversarial Network: Toward Real-world Noise Removal and Noise
Generation [52.75909685172843]
実世界の画像ノイズ除去は、コンピュータビジョンにおける長年の課題である。
本稿では,ノイズ除去およびノイズ発生タスクに対処する新しい統合フレームワークを提案する。
本手法はクリーンノイズ画像対の連成分布を学習する。
論文 参考訳(メタデータ) (2020-07-12T09:16:06Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。