論文の概要: Revisiting L1 Loss in Super-Resolution: A Probabilistic View and Beyond
- arxiv url: http://arxiv.org/abs/2201.10084v1
- Date: Tue, 25 Jan 2022 04:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 06:09:40.406292
- Title: Revisiting L1 Loss in Super-Resolution: A Probabilistic View and Beyond
- Title(参考訳): 超解法におけるL1損失の再検討:確率論的視点とそれ以上
- Authors: Xiangyu He, Jian Cheng
- Abstract要約: 不正な問題としての超分解能は、低分解能入力に対する多くの高分解能候補を持つ。
提案する目的関数は,すべての可算解に対する再構成誤差の期待値の最小化を目的とする。
- 参考スコア(独自算出の注目度): 28.90772192259691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Super-resolution as an ill-posed problem has many high-resolution candidates
for a low-resolution input. However, the popular $\ell_1$ loss used to best fit
the given HR image fails to consider this fundamental property of
non-uniqueness in image restoration. In this work, we fix the missing piece in
$\ell_1$ loss by formulating super-resolution with neural networks as a
probabilistic model. It shows that $\ell_1$ loss is equivalent to a degraded
likelihood function that removes the randomness from the learning process. By
introducing a data-adaptive random variable, we present a new objective
function that aims at minimizing the expectation of the reconstruction error
over all plausible solutions. The experimental results show consistent
improvements on mainstream architectures, with no extra parameter or computing
cost at inference time.
- Abstract(参考訳): 誤った問題としての超分解能は、低分解能入力に対する多くの高分解能候補を持つ。
しかし、与えられたHR画像に最も合うために使われる$\ell_1$の損失は、画像復元におけるこの不均一性の基本的な性質を考慮できない。
本研究では,ニューラルネットワークによる超解像を確率論的モデルとして定式化することにより,損失を$\ell_1$で補正する。
これは、$\ell_1$の損失が学習プロセスからランダム性を取り除く劣化度関数と同値であることを示している。
データ適応型確率変数を導入することにより、すべての可算解に対する再構成誤差の期待を最小化することを目的とした、新たな目的関数を提案する。
実験結果から、パラメータや計算コストを抑えながら、主流アーキテクチャにおいて一貫した改善が見られた。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Solving multiscale elliptic problems by sparse radial basis function
neural networks [3.5297361401370044]
楕円偏微分方程式 (PDE) を多スケール係数で解くために, スパースラジアル基底関数ニューラルネットワーク法を提案する。
深層混合残差法に着想を得て,2次問題を1次システムに書き換え,複数の放射基底関数ニューラルネットワーク(RBFNN)を用いて未知の関数を近似する。
提案手法の精度と有効性は,1次元から3次元までのスケール分離,不連続性,複数スケールのマルチスケール問題の集合を通して実証される。
論文 参考訳(メタデータ) (2023-09-01T15:11:34Z) - End-to-end Alternating Optimization for Real-World Blind Super
Resolution [43.95832398891317]
Blind Super-Resolution (SR) は通常2つのサブプロブレムを含む。
与えられた低分解能(LR)画像の劣化を推定し、高分解能(HR)画像に超解凍する。
本稿では,SR画像の劣化と復元を1つのモデルで推定できる交互最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-17T06:55:09Z) - The Implicit Bias of Minima Stability in Multivariate Shallow ReLU
Networks [53.95175206863992]
本研究では,2次損失を持つ1層多変量ReLUネットワークをトレーニングする際に,勾配勾配勾配が収束する解のタイプについて検討する。
我々は、浅いReLUネットワークが普遍近似器であるにもかかわらず、安定した浅層ネットワークは存在しないことを証明した。
論文 参考訳(メタデータ) (2023-06-30T09:17:39Z) - Normalizing Flow as a Flexible Fidelity Objective for Photo-Realistic
Super-resolution [161.39504409401354]
超解像は不適切な問題であり、高分解能画像は可算解空間の1つの可能性を表す。
しかし、支配的なパラダイムは、L_のようなピクセル単位の損失を採用することで、ぼやけた平均に向かって予測を駆動する。
本稿では,L_損失を再考することによりこの問題に対処し,一層条件流に対応することを示す。
この関係に触発されて、L_目的に対する忠実度に基づくオルタナティブとして一般流れを探索する。
より深いフローの柔軟性は、対向的な損失と組み合わせることで、より良い視覚的品質と一貫性をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-11-05T17:56:51Z) - Breaking the Sample Complexity Barrier to Regret-Optimal Model-Free
Reinforcement Learning [52.76230802067506]
漸進的強化学習における後悔を最小限に抑えるために,新しいモデルフリーアルゴリズムを提案する。
提案アルゴリズムは、2つのQ-ラーニングシーケンスの助けを借りて、初期設定された参照更新ルールを用いる。
初期の分散還元法の設計原理は、他のRL設定とは独立した関心を持つかもしれない。
論文 参考訳(メタデータ) (2021-10-09T21:13:48Z) - Omnipredictors [19.735769148626588]
ロス最小化は機械学習において支配的なパラダイムである。
我々は家族の損失を最適化するために使用できる$mathcalL,mathcalC$)-omnipredictorの概念を紹介した。
このような「余分な知識」の学習は、多重校正とのつながりを通して実現可能であることを示す。
論文 参考訳(メタデータ) (2021-09-11T23:28:49Z) - ReLU Regression with Massart Noise [52.10842036932169]
本稿では、ReLU回帰の基本的問題として、Rectified Linear Units(ReLU)をデータに適合させることを目標としている。
我々は自然およびよく研究された半ランダムノイズモデルであるMassartノイズモデルにおけるReLU回帰に着目した。
このモデルにおいて,パラメータの正確な回復を実現する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-10T02:13:22Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Least $k$th-Order and R\'{e}nyi Generative Adversarial Networks [12.13405065406781]
実験結果から,MNISTデータセットとCelebAデータセットに適用した損失関数は,それぞれ$k$と$alpha$のパラメータによって提供される余分な自由度により,性能上のメリットが期待できることがわかった。
本研究は GAN に適用されているが,提案手法は汎用的であり,情報理論の他の応用例,例えば人工知能における公正性やプライバシの問題などに応用することができる。
論文 参考訳(メタデータ) (2020-06-03T18:44:05Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。