論文の概要: Multi-Outputs Is All You Need For Deblur
- arxiv url: http://arxiv.org/abs/2208.13029v1
- Date: Sat, 27 Aug 2022 14:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:52:08.135279
- Title: Multi-Outputs Is All You Need For Deblur
- Title(参考訳): マルチアウトプットはDeblurに必要なもの
- Authors: Sidun Liu, Peng Qiao and Yong Dou
- Abstract要約: ディープラーニングアプローチは、ぼやけたカーネルの学習を捨て、エンドツーエンドの教師あり学習を直接採用する。
特にランダムな分布からラベルがサンプリングされた場合、ラベルを直接指定するのは合理的ではない、と我々は主張する。
分散学習のための新しいマルチヘッド出力アーキテクチャとそれに対応する損失関数を提案する。
- 参考スコア(独自算出の注目度): 16.772487648391305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image deblurring task is an ill-posed one, where exists infinite feasible
solutions for blurry image. Modern deep learning approaches usually discard the
learning of blur kernels and directly employ end-to-end supervised learning.
Popular deblurring datasets define the label as one of the feasible solutions.
However, we argue that it's not reasonable to specify a label directly,
especially when the label is sampled from a random distribution. Therefore, we
propose to make the network learn the distribution of feasible solutions, and
design based on this consideration a novel multi-head output architecture and
corresponding loss function for distribution learning. Our approach enables the
model to output multiple feasible solutions to approximate the target
distribution. We further propose a novel parameter multiplexing method that
reduces the number of parameters and computational effort while improving
performance. We evaluated our approach on multiple image-deblur models,
including the current state-of-the-art NAFNet. The improvement of best overall
(pick the highest score among multiple heads for each validation image) PSNR
outperforms the compared baselines up to 0.11~0.18dB. The improvement of the
best single head (pick the best-performed head among multiple heads on
validation set) PSNR outperforms the compared baselines up to 0.04~0.08dB. The
codes are available at https://github.com/Liu-SD/multi-output-deblur.
- Abstract(参考訳): 画像デブラリングタスクは不適切なタスクであり、ぼやけた画像に対して無限に実行可能な解が存在する。
現代のディープラーニングアプローチは通常、ぼやけたカーネルの学習を破棄し、エンドツーエンドの教師付き学習を直接採用する。
一般的なデブロアリングデータセットは、ラベルを実現可能なソリューションの1つとして定義している。
しかし、特にランダムな分布からラベルがサンプリングされた場合、ラベルを直接指定するのは合理的ではないと論じる。
そこで本研究では,ネットワークが実現可能なソリューションの分布を学習できるようにし,新しいマルチヘッド出力アーキテクチャとそれに対応する損失関数の設計を提案する。
提案手法は, 対象分布を近似するために, 複数の実現可能な解を出力できる。
さらに,性能向上を図りつつ,パラメータ数と計算労力を削減する新しいパラメータ多重化手法を提案する。
我々は,現在のNAFNetを含む複数の画像分解モデルに対するアプローチを評価した。
総合的な改善(検証画像毎の複数のヘッドの最高スコア)により、PSNRは比較基準線を0.11~0.18dBまで上回る。
最高のシングルヘッドの改善(検証セット上の複数のヘッドの中で最高のパフォーマンスのヘッドをピックする)により、PSNRは比較ベースラインを0.04~0.08dBに向上させる。
コードはhttps://github.com/liu-sd/multi-output-deblurで入手できる。
関連論文リスト
- Rethinking Score Distillation as a Bridge Between Image Distributions [97.27476302077545]
提案手法は, 劣化した画像(ソース)を自然画像分布(ターゲット)に転送することを目的としている。
本手法は,複数の領域にまたがって容易に適用可能であり,特殊な手法の性能のマッチングや評価を行うことができる。
テキストから2D、テキストベースのNeRF最適化、絵画を実画像に変換すること、光学錯視生成、および3Dスケッチから実画像に変換することにおいて、その実用性を実証する。
論文 参考訳(メタデータ) (2024-06-13T17:59:58Z) - Fast Ensembling with Diffusion Schrödinger Bridge [17.334437293164566]
ディープ・アンサンブル(Deep Ensemble、DE)アプローチは、様々な初期点からニューラルネットワークを訓練し、様々な局所最適点に向かって収束させることにより、ディープ・ニューラルネットワークの性能を高めるための簡単な手法である。
本稿では,Diffusion Bridge Network (DBN) と呼ばれる新しい手法を提案する。
この軽量ニューラルネットワークDBNで重アンサンブルを置換することにより、CIFAR-10、CIFAR-100、TinyImageNetなどのベンチマークデータセットの精度と不確実性を維持しながら、計算コストを削減した推論を実現した。
論文 参考訳(メタデータ) (2024-04-24T11:35:02Z) - Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - DiffusAL: Coupling Active Learning with Graph Diffusion for
Label-Efficient Node Classification [1.0602247913671219]
我々はDiffusALと呼ばれる新しいグラフ学習手法を導入し、多様な設定において大きな堅牢性を示す。
取得とトレーニングの計算のほとんどは事前処理が可能であり、Diffusalは多様な選択基準を組み合わせたアプローチに比べて効率的である。
各種ベンチマークデータセットを用いた実験により, 従来の手法と異なり, テスト対象のデータセットとラベルの予算の100%において, ランダム選択を著しく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-07-31T20:30:13Z) - Unite and Conquer: Plug & Play Multi-Modal Synthesis using Diffusion
Models [54.1843419649895]
拡散確率モデル(DDPM)に基づく解を提案する。
他の生成モデルよりも拡散モデルを選択する動機は、拡散モデルの柔軟な内部構造に由来する。
提案手法は,複数のサブタスクで訓練された複数の拡散モデルを統一し,組み合わせたタスクを克服する。
論文 参考訳(メタデータ) (2022-12-01T18:59:55Z) - Enhanced Performance of Pre-Trained Networks by Matched Augmentation
Distributions [10.74023489125222]
列車-テストの分散シフトに対処するための簡単な解を提案する。
テスト画像に対して、複数のランダムな作物に対して結果を合成する。
これは列車の時間拡張と一致するだけでなく、入力画像の完全なカバレッジも提供する。
論文 参考訳(メタデータ) (2022-01-19T22:33:00Z) - Permuted AdaIN: Reducing the Bias Towards Global Statistics in Image
Classification [97.81205777897043]
近年の研究では、畳み込みニューラルネットワーク分類器は形状を犠牲にしてテクスチャを過度に依存していることが示されている。
一方、形状と局所像の区別は類似しているが異なるが、一方、グローバル画像統計は異なる。
提案手法は,pAdaIN (Permuted Adaptive Instance Normalization) と呼ばれ,画像分類器の隠蔽層におけるグローバル統計の表現を減少させる。
論文 参考訳(メタデータ) (2020-10-09T16:38:38Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。