論文の概要: Unsupervised Domain-Specific Deblurring using Scale-Specific Attention
- arxiv url: http://arxiv.org/abs/2112.06175v1
- Date: Sun, 12 Dec 2021 07:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 12:21:39.260357
- Title: Unsupervised Domain-Specific Deblurring using Scale-Specific Attention
- Title(参考訳): スケール特化注意を用いた教師なしドメイン特化度
- Authors: Praveen Kandula and Rajagopalan. A. N
- Abstract要約: スケール適応型アテンションモジュール (SAAM) を用いた教師なしドメイン固有のデブロアリングを提案する。
我々のネットワークはトレーニングのために教師付きペアを必要とせず、デブロアリング機構は主に敵の損失によって導かれる。
異なるアブレーション研究により、我々の粗粒度機構は、教師なしモデルよりも優れており、SAAMは文学で使用される注意モデルと比較して、より優れた参画が可能であることが示されている。
- 参考スコア(独自算出の注目度): 0.25797036386508543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the literature, coarse-to-fine or scale-recurrent approach i.e.
progressively restoring a clean image from its low-resolution versions has been
successfully employed for single image deblurring. However, a major
disadvantage of existing methods is the need for paired data; i.e. sharpblur
image pairs of the same scene, which is a complicated and cumbersome
acquisition procedure. Additionally, due to strong supervision on loss
functions, pre-trained models of such networks are strongly biased towards the
blur experienced during training and tend to give sub-optimal performance when
confronted by new blur kernels during inference time. To address the above
issues, we propose unsupervised domain-specific deblurring using a
scale-adaptive attention module (SAAM). Our network does not require supervised
pairs for training, and the deblurring mechanism is primarily guided by
adversarial loss, thus making our network suitable for a distribution of blur
functions. Given a blurred input image, different resolutions of the same image
are used in our model during training and SAAM allows for effective flow of
information across the resolutions. For network training at a specific scale,
SAAM attends to lower scale features as a function of the current scale.
Different ablation studies show that our coarse-to-fine mechanism outperforms
end-to-end unsupervised models and SAAM is able to attend better compared to
attention models used in literature. Qualitative and quantitative comparisons
(on no-reference metrics) show that our method outperforms prior unsupervised
methods.
- Abstract(参考訳): 文献では, 粗粒度やスケールリカレントなアプローチ, 低解像度バージョンからクリーンなイメージを段階的に復元する手法が, 単一画像のデブラリングに有効である。
しかし、既存の方法の大きな欠点は、ペアデータの必要性である。つまり、同じシーンのシャープブラル画像ペアは、複雑で面倒な取得手順である。
さらに、損失関数の強い監督により、そのようなネットワークの事前学習モデルは、トレーニング中に経験したぼやけに強く偏り、推論時に新しいぼやけたカーネルに直面すると、準最適性能を与える傾向がある。
上記の問題に対処するため,SAAM (Scale-Adaptive attention module) を用いた教師なしドメイン固有のデブロアリングを提案する。
ネットワークはトレーニングのために教師付きペアを必要としないため,デブラリング機構は主に逆損失によって誘導されるため,ぼかし関数の分布に適合する。
ぼやけた入力画像が与えられた場合、トレーニング中に同じ画像の異なる解像度がモデルで使用され、SAAMは解像度を横断する効果的な情報の流れを可能にする。
特定のスケールでのネットワークトレーニングでは、SAAMは現在のスケールの関数として、より低いスケールの機能に対応します。
異なるアブレーション研究により,本機構はエンド・ツー・エンドの非教師付きモデルよりも優れており,saamは文献における注意モデルよりも優れた参加が可能であることが示された。
質的かつ定量的な比較(参照なしのメトリクス)により、従来の教師なしメソッドよりも優れた結果が得られる。
関連論文リスト
- Unsupervised Image Outlier Detection using RANSAC [0.27195102129094995]
画像異常検出(OD)は、コンピュータビジョンタスクで使用される画像データセットの品質と精度を保証するための重要なツールである。
しかし、既存のアプローチのほとんどは、アウトレイラ予測に先立ってトレーニングのために、一組の分散データを必要とする。
本研究では, RANSAC-NNを提案する。RANSAC-NNは, 汚染された集合内の外れ値を検出するための教師なし画像ODアルゴリズムである。
論文 参考訳(メタデータ) (2023-07-23T11:50:27Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Multiscale Structure Guided Diffusion for Image Deblurring [24.09642909404091]
拡散確率モデル (DPM) は画像の劣化に用いられている。
暗黙のバイアスとして、単純だが効果的なマルチスケール構造ガイダンスを導入する。
目に見えないデータのアーティファクトが少ないほど、より堅牢なデブロアリング結果を示します。
論文 参考訳(メタデータ) (2022-12-04T10:40:35Z) - Deep Learning-Based Defect Classification and Detection in SEM Images [1.9206693386750882]
特に、異なるResNet、VGGNetアーキテクチャをバックボーンとして使用するRetinaNetモデルをトレーニングする。
そこで本研究では,異なるモデルからの出力予測を組み合わせることで,欠陥の分類と検出に優れた性能を実現するための選好に基づくアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2022-06-20T16:34:11Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Denoising Diffusion Restoration Models [110.1244240726802]
Denoising Diffusion Restoration Models (DDRM) は効率的で教師なしの後方サンプリング手法である。
DDRMの汎用性を、超高解像度、デブロアリング、インペイント、カラー化のためにいくつかの画像データセットに示す。
論文 参考訳(メタデータ) (2022-01-27T20:19:07Z) - Self-Adversarial Training incorporating Forgery Attention for Image
Forgery Localization [40.622844703837046]
本稿では、より堅牢なパフォーマンスを実現するために、動的にトレーニングデータを拡大するセルフアドバイサルトレーニング戦略を提案する。
我々は、粗大なネットワークを利用して、元の領域と改ざんされた領域のノイズの不整合を高める。
提案アルゴリズムは,異なるベンチマークデータセットにおいて,最先端の手法よりも明確なマージンで,着実に性能を向上する。
論文 参考訳(メタデータ) (2021-07-06T07:20:08Z) - Mean Embeddings with Test-Time Data Augmentation for Ensembling of
Representations [8.336315962271396]
表現のアンサンブルを考察し、MeTTA(Test-time augmentation)を用いた平均埋め込みを提案する。
MeTTAは、教師付きモデルと自己教師付きモデルの両方において、ImageNetの線形評価の質を大幅に向上させる。
我々は、より高品質な表現を推論するためにアンサンブルの成功を広めることが、多くの新しいアンサンブルアプリケーションを開く重要なステップであると信じている。
論文 参考訳(メタデータ) (2021-06-15T10:49:46Z) - Unsupervised Learning of Visual Features by Contrasting Cluster
Assignments [57.33699905852397]
ペア比較の計算を必要とせず,コントラスト的手法を生かしたオンラインアルゴリズムSwaVを提案する。
本手法では,クラスタ割り当て間の一貫性を保ちながら,同時にデータをクラスタ化する。
我々の方法は大規模で小さなバッチで訓練でき、無制限のデータにスケールできる。
論文 参考訳(メタデータ) (2020-06-17T14:00:42Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。