論文の概要: Unsupervised Domain-Specific Deblurring using Scale-Specific Attention
- arxiv url: http://arxiv.org/abs/2112.06175v1
- Date: Sun, 12 Dec 2021 07:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 12:21:39.260357
- Title: Unsupervised Domain-Specific Deblurring using Scale-Specific Attention
- Title(参考訳): スケール特化注意を用いた教師なしドメイン特化度
- Authors: Praveen Kandula and Rajagopalan. A. N
- Abstract要約: スケール適応型アテンションモジュール (SAAM) を用いた教師なしドメイン固有のデブロアリングを提案する。
我々のネットワークはトレーニングのために教師付きペアを必要とせず、デブロアリング機構は主に敵の損失によって導かれる。
異なるアブレーション研究により、我々の粗粒度機構は、教師なしモデルよりも優れており、SAAMは文学で使用される注意モデルと比較して、より優れた参画が可能であることが示されている。
- 参考スコア(独自算出の注目度): 0.25797036386508543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the literature, coarse-to-fine or scale-recurrent approach i.e.
progressively restoring a clean image from its low-resolution versions has been
successfully employed for single image deblurring. However, a major
disadvantage of existing methods is the need for paired data; i.e. sharpblur
image pairs of the same scene, which is a complicated and cumbersome
acquisition procedure. Additionally, due to strong supervision on loss
functions, pre-trained models of such networks are strongly biased towards the
blur experienced during training and tend to give sub-optimal performance when
confronted by new blur kernels during inference time. To address the above
issues, we propose unsupervised domain-specific deblurring using a
scale-adaptive attention module (SAAM). Our network does not require supervised
pairs for training, and the deblurring mechanism is primarily guided by
adversarial loss, thus making our network suitable for a distribution of blur
functions. Given a blurred input image, different resolutions of the same image
are used in our model during training and SAAM allows for effective flow of
information across the resolutions. For network training at a specific scale,
SAAM attends to lower scale features as a function of the current scale.
Different ablation studies show that our coarse-to-fine mechanism outperforms
end-to-end unsupervised models and SAAM is able to attend better compared to
attention models used in literature. Qualitative and quantitative comparisons
(on no-reference metrics) show that our method outperforms prior unsupervised
methods.
- Abstract(参考訳): 文献では, 粗粒度やスケールリカレントなアプローチ, 低解像度バージョンからクリーンなイメージを段階的に復元する手法が, 単一画像のデブラリングに有効である。
しかし、既存の方法の大きな欠点は、ペアデータの必要性である。つまり、同じシーンのシャープブラル画像ペアは、複雑で面倒な取得手順である。
さらに、損失関数の強い監督により、そのようなネットワークの事前学習モデルは、トレーニング中に経験したぼやけに強く偏り、推論時に新しいぼやけたカーネルに直面すると、準最適性能を与える傾向がある。
上記の問題に対処するため,SAAM (Scale-Adaptive attention module) を用いた教師なしドメイン固有のデブロアリングを提案する。
ネットワークはトレーニングのために教師付きペアを必要としないため,デブラリング機構は主に逆損失によって誘導されるため,ぼかし関数の分布に適合する。
ぼやけた入力画像が与えられた場合、トレーニング中に同じ画像の異なる解像度がモデルで使用され、SAAMは解像度を横断する効果的な情報の流れを可能にする。
特定のスケールでのネットワークトレーニングでは、SAAMは現在のスケールの関数として、より低いスケールの機能に対応します。
異なるアブレーション研究により,本機構はエンド・ツー・エンドの非教師付きモデルよりも優れており,saamは文献における注意モデルよりも優れた参加が可能であることが示された。
質的かつ定量的な比較(参照なしのメトリクス)により、従来の教師なしメソッドよりも優れた結果が得られる。
関連論文リスト
- Unsupervised Representation Learning by Balanced Self Attention Matching [2.3020018305241337]
本稿では,BAMと呼ばれる画像特徴を埋め込む自己教師型手法を提案する。
我々は,これらの分布とグローバルな均衡とエントロピー正規化バージョンに一致する損失を最小化することにより,豊かな表現と特徴の崩壊を回避する。
半教師付きベンチマークと移動学習ベンチマークの両方において,先行手法と競合する性能を示す。
論文 参考訳(メタデータ) (2024-08-04T12:52:44Z) - AMSA-UNet: An Asymmetric Multiple Scales U-net Based on Self-attention for Deblurring [7.00986132499006]
asymmetric multiple scales U-net based on self-attention (AMSA-UNet) was proposed to improve the accuracy and compute complexity。
マルチスケールなU字型アーキテクチャを導入することで、ネットワークはグローバルレベルでぼやけた領域に集中でき、ローカルレベルで画像の詳細を回復することができる。
論文 参考訳(メタデータ) (2024-06-13T11:39:02Z) - Intra-task Mutual Attention based Vision Transformer for Few-Shot Learning [12.5354658533836]
人間は、ほんのわずかの例に晒された後に、新しい、目に見えない画像を正確に分類する能力を持っている。
人工ニューラルネットワークモデルでは、限られたサンプルを持つ2つのイメージを区別する最も関連性の高い特徴を決定することが課題である。
本稿では,サポートとクエリサンプルをパッチに分割するタスク内相互注意手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T02:02:57Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Multiscale Structure Guided Diffusion for Image Deblurring [24.09642909404091]
拡散確率モデル (DPM) は画像の劣化に用いられている。
暗黙のバイアスとして、単純だが効果的なマルチスケール構造ガイダンスを導入する。
目に見えないデータのアーティファクトが少ないほど、より堅牢なデブロアリング結果を示します。
論文 参考訳(メタデータ) (2022-12-04T10:40:35Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Denoising Diffusion Restoration Models [110.1244240726802]
Denoising Diffusion Restoration Models (DDRM) は効率的で教師なしの後方サンプリング手法である。
DDRMの汎用性を、超高解像度、デブロアリング、インペイント、カラー化のためにいくつかの画像データセットに示す。
論文 参考訳(メタデータ) (2022-01-27T20:19:07Z) - Self-Adversarial Training incorporating Forgery Attention for Image
Forgery Localization [40.622844703837046]
本稿では、より堅牢なパフォーマンスを実現するために、動的にトレーニングデータを拡大するセルフアドバイサルトレーニング戦略を提案する。
我々は、粗大なネットワークを利用して、元の領域と改ざんされた領域のノイズの不整合を高める。
提案アルゴリズムは,異なるベンチマークデータセットにおいて,最先端の手法よりも明確なマージンで,着実に性能を向上する。
論文 参考訳(メタデータ) (2021-07-06T07:20:08Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。