論文の概要: A Theory of the Distortion-Perception Tradeoff in Wasserstein Space
- arxiv url: http://arxiv.org/abs/2107.02555v1
- Date: Tue, 6 Jul 2021 11:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:38:44.671276
- Title: A Theory of the Distortion-Perception Tradeoff in Wasserstein Space
- Title(参考訳): ワッサーシュタイン空間における歪み知覚トレードオフの理論
- Authors: Dror Freirich, Tomer Michaeli, Ron Meir
- Abstract要約: 推定器の歪みを下げると、その出力の分布は、推定しようとする信号の分布から逸脱する。
この現象は画像修復において顕著な関心を集めており、真理画像の忠実さは知覚品質の犠牲となる。
知覚歪トレードオフの2つの極端における推定器から推定器をどのように構築できるかを示す。
- 参考スコア(独自算出の注目度): 35.25746003630763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The lower the distortion of an estimator, the more the distribution of its
outputs generally deviates from the distribution of the signals it attempts to
estimate. This phenomenon, known as the perception-distortion tradeoff, has
captured significant attention in image restoration, where it implies that
fidelity to ground truth images comes at the expense of perceptual quality
(deviation from statistics of natural images). However, despite the increasing
popularity of performing comparisons on the perception-distortion plane, there
remains an important open question: what is the minimal distortion that can be
achieved under a given perception constraint? In this paper, we derive a closed
form expression for this distortion-perception (DP) function for the mean
squared-error (MSE) distortion and the Wasserstein-2 perception index. We prove
that the DP function is always quadratic, regardless of the underlying
distribution. This stems from the fact that estimators on the DP curve form a
geodesic in Wasserstein space. In the Gaussian setting, we further provide a
closed form expression for such estimators. For general distributions, we show
how these estimators can be constructed from the estimators at the two extremes
of the tradeoff: The global MSE minimizer, and a minimizer of the MSE under a
perfect perceptual quality constraint. The latter can be obtained as a
stochastic transformation of the former.
- Abstract(参考訳): 推定器の歪みが低ければ低いほど、出力の分布は概して推定しようとする信号の分布から逸脱する。
この現象は知覚・ゆがみのトレードオフとして知られるが、画像復元においてかなりの注目を集めており、根拠となる真理画像への忠実さは知覚的品質(自然画像の統計から導かれる)を犠牲にしていることを示している。
しかし、知覚歪曲面の比較を行う人気が高まっているにもかかわらず、重要なオープンな疑問が残る: 与えられた知覚制約の下で達成できる最小の歪みは何か?
本稿では,この歪み知覚(DP)関数に対して,平均二乗誤差(MSE)歪みとワッサーシュタイン2知覚指数の閉形式式を導出する。
DP関数が基底分布によらず常に二次的であることを証明する。
これは、DP曲線上の推定者がワッサーシュタイン空間の測地線を形成するという事実に由来する。
ガウス的設定では、そのような推定器に対して閉形式表現を提供する。
一般的な分布では、これらの推定器がトレードオフの2つの極端にある推定器からどのように構築できるかを示す: グローバルなMSE最小化器と、完全な知覚品質制約の下でのMSE最小化器。
後者は前者の確率変換として得ることができる。
関連論文リスト
- Straightness of Rectified Flow: A Theoretical Insight into Wasserstein Convergence [54.580605276017096]
拡散モデルは画像生成とデノナイズのための強力なツールとして登場した。
最近、Liuらは新しい代替生成モデル Rectified Flow (RF) を設計した。
RFは,一連の凸最適化問題を用いて,ノイズからデータへの直流軌跡の学習を目的としている。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Characterization of the Distortion-Perception Tradeoff for Finite
Channels with Arbitrary Metrics [31.383958289479015]
有限アルファベットチャネル上の歪み知覚トレードオフについて検討する。
DP関数と最適再構成の計算は,一連の線形プログラミング問題の解法と等価であることを示す。
論文 参考訳(メタデータ) (2024-02-03T21:17:15Z) - Rate-Distortion-Perception Tradeoff Based on the
Conditional-Distribution Perception Measure [33.084834042565895]
本研究では,大きなブロック長の制限下で,メモリレスソースモデルに対するRDPのトレードオフについて検討する。
我々の知覚尺度は、エンコーダ出力に条件付されたソースの分布と再構成シーケンスのばらつきに基づく。
論文 参考訳(メタデータ) (2024-01-22T18:49:56Z) - Statistically Optimal Generative Modeling with Maximum Deviation from the Empirical Distribution [2.1146241717926664]
本稿では, 左非可逆なプッシュフォワード写像に制約されたワッサーシュタインGANが, 複製を回避し, 経験的分布から著しく逸脱する分布を生成することを示す。
我々の最も重要な寄与は、生成分布と経験的分布の間のワッサーシュタイン-1距離の有限サンプル下界を与える。
また、生成分布と真のデータ生成との距離に有限サンプル上限を確立する。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - Hinge-Wasserstein: Estimating Multimodal Aleatoric Uncertainty in Regression Tasks [9.600416563894658]
画像からパラメータ値への回帰について検討し、ここでは確率分布を予測して不確実性を検出することが一般的である。
従来の損失関数は、完全な真実分布が存在しない場合、確率分布の予測が低く、自信が強くなる。
トレーニング中の弱い二次モードのペナルティを低減するために, ハンジ・ワッサースタイン(Hungge-Wasserstein)を提案する。
論文 参考訳(メタデータ) (2023-06-01T11:20:09Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - Wasserstein Distributionally Robust Estimation in High Dimensions:
Performance Analysis and Optimal Hyperparameter Tuning [0.0]
雑音線形測定から未知パラメータを推定するための分布的ロバストな推定フレームワークを提案する。
このような推定器の2乗誤差性能を解析する作業に着目する。
凸凹最適化問題の解法として2乗誤差を復元できることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:02:59Z) - An Indirect Rate-Distortion Characterization for Semantic Sources:
General Model and the Case of Gaussian Observation [83.93224401261068]
ソースモデルは、情報の意味的側面に対する最近の関心の高まりによって動機付けられている。
intrinsic状態は、一般に観測不可能なソースの意味的特徴に対応する。
レート歪み関数は、ソースのセマンティックレート歪み関数である。
論文 参考訳(メタデータ) (2022-01-29T02:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。