論文の概要: Blur-Attention: A boosting mechanism for non-uniform blurred image
restoration
- arxiv url: http://arxiv.org/abs/2008.08526v1
- Date: Wed, 19 Aug 2020 16:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:37:39.626131
- Title: Blur-Attention: A boosting mechanism for non-uniform blurred image
restoration
- Title(参考訳): Blur-Attention:非一様ぼかし画像修復のための促進機構
- Authors: Xiaoguang Li, Feifan Yang, Kin Man Lam, Li Zhuo, Jiafeng Li
- Abstract要約: 非一様ぼかし画像の特徴を動的に捉えるためのぼかしアテンションモジュールを提案する。
条件生成の逆方向のフレームワークにぼやけたアテンションネットワークを導入することにより、エンド・ツー・エンドのブラインド・モーション・デブロアリング法を提案する。
実験結果から,PSNR,SSIM,主観的視覚的品質の両面において,本手法の劣化能力は優れた客観的性能を示した。
- 参考スコア(独自算出の注目度): 27.075713246257596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic scene deblurring is a challenging problem in computer vision. It is
difficult to accurately estimate the spatially varying blur kernel by
traditional methods. Data-driven-based methods usually employ kernel-free
end-to-end mapping schemes, which are apt to overlook the kernel estimation. To
address this issue, we propose a blur-attention module to dynamically capture
the spatially varying features of non-uniform blurred images. The module
consists of a DenseBlock unit and a spatial attention unit with multi-pooling
feature fusion, which can effectively extract complex spatially varying blur
features. We design a multi-level residual connection structure to connect
multiple blur-attention modules to form a blur-attention network. By
introducing the blur-attention network into a conditional generation
adversarial framework, we propose an end-to-end blind motion deblurring method,
namely Blur-Attention-GAN (BAG), for a single image. Our method can adaptively
select the weights of the extracted features according to the spatially varying
blur features, and dynamically restore the images. Experimental results show
that the deblurring capability of our method achieved outstanding objective
performance in terms of PSNR, SSIM, and subjective visual quality. Furthermore,
by visualizing the features extracted by the blur-attention module,
comprehensive discussions are provided on its effectiveness.
- Abstract(参考訳): 動的シーンのデブロアリングはコンピュータビジョンにおいて難しい問題である。
従来の方法で空間的に変化するぼかし核を正確に推定することは困難である。
データ駆動型手法は通常カーネルフリーのエンドツーエンドマッピング方式を採用しており、カーネル推定を見落としやすい。
この問題に対処するため,不均一な画像の空間的変化を動的に捉えるためのぼかしアテンションモジュールを提案する。
モジュールは、DenseBlockユニットとマルチプール機能融合を備えた空間注意ユニットから構成されており、空間的に変化する複雑な特徴を効果的に抽出することができる。
マルチレベル残差接続構造を設計し、複数のブラーアテンションモジュールを接続し、ブラーアテンションネットワークを形成する。
本研究では,Blur-Attention-GAN (Blur-Attention-GAN) を1つの画像に対して終端から終端までのブラインド動作除去法を提案する。
本手法は,空間的に変化するボケ特徴に応じて抽出された特徴の重みを適応的に選択し,画像を動的に復元する。
実験結果から,PSNR, SSIM, 主観的視覚的品質の両面において, 本手法の劣化性能は優れていた。
さらに、ぼかしアテンションモジュールによって抽出された特徴を可視化することにより、その効果について総合的な議論を行う。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - Adaptive Graph Convolution Module for Salient Object Detection [7.278033100480174]
本稿では,複雑なシーンを扱うための適応型グラフ畳み込みモジュール(AGCM)を提案する。
学習可能な領域生成層を用いて入力画像からプロトタイプ特徴を抽出する。
提案したAGCMは,SOD性能を定量的かつ定量的に劇的に向上させる。
論文 参考訳(メタデータ) (2023-03-17T07:07:17Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z) - SVBR-NET: A Non-Blind Spatially Varying Defocus Blur Removal Network [2.4975981795360847]
本稿では,空間的に異なるカーネルを扱える非盲検画像分解手法を提案する。
本稿では,2つのエンコーダ・デコーダサブネットワークを導入し,ぼやけた画像と推定したぼやけマップで処理する。
ネットワークは、既存のぼかし推定法によって生成されたぼかしマップをエミュレートするために拡張された、合成的にぼかしカーネルで訓練される。
論文 参考訳(メタデータ) (2022-06-26T17:21:12Z) - Adaptive Single Image Deblurring [43.02281823557039]
本稿では,画像間の大きなぼやけた変化を扱うために,効率的な画素適応化と特徴注意設計を提案する。
また、性能を大幅に向上させる効果的なコンテンツ認識グローバルローカルフィルタリングモジュールを提案する。
論文 参考訳(メタデータ) (2022-01-01T10:10:19Z) - Attention-Guided Progressive Neural Texture Fusion for High Dynamic
Range Image Restoration [48.02238732099032]
本研究では,Attention-guided Progressive Neural Texture Fusion (APNT-Fusion) HDR修復モデルを提案する。
飽和領域におけるテクスチャ特性の伝達とマルチ露光トナーとテクスチャ特徴の融合に着目した,効率的な2ストリーム構造を提案する。
プログレッシブテクスチャブレンディングモジュールは、エンコードされた2ストリーム特徴をマルチスケールかつプログレッシブな方法でブレンドするように設計されている。
論文 参考訳(メタデータ) (2021-07-13T16:07:00Z) - DWDN: Deep Wiener Deconvolution Network for Non-Blind Image Deblurring [66.91879314310842]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールのカスケード機能改善モジュールは、分離された深い特徴から退色画像を予測する。
提案したDeep Wienerデコンボリューションネットワークは,目に見える成果物が少なく,かつ,最先端の非盲点画像デコンボリューション手法を広いマージンで定量的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。