論文の概要: The Rate-Distortion-Perception Tradeoff: The Role of Common Randomness
- arxiv url: http://arxiv.org/abs/2202.04147v1
- Date: Tue, 8 Feb 2022 21:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 16:06:48.882769
- Title: The Rate-Distortion-Perception Tradeoff: The Role of Common Randomness
- Title(参考訳): rate-distortion-perception tradeoff:共通ランダム性の役割
- Authors: Aaron B. Wagner
- Abstract要約: 本稿では,分散保存型損失圧縮問題と一致する完全現実論の事例に焦点を当てる。
既存のトレードオフは、共通ランダム性の量を無限にすることで回復される。
- 参考スコア(独自算出の注目度): 23.37690979017006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A rate-distortion-perception (RDP) tradeoff has recently been proposed by
Blau and Michaeli and also Matsumoto. Focusing on the case of perfect realism,
which coincides with the problem of distribution-preserving lossy compression
studied by Li et al., a coding theorem for the RDP tradeoff that allows for a
specified amount of common randomness between the encoder and decoder is
provided. The existing RDP tradeoff is recovered by allowing for the amount of
common randomness to be infinite. The quadratic Gaussian case is examined in
detail.
- Abstract(参考訳): 近年,Blau と Michaeli と Matsumoto の両氏による RDP のトレードオフが提案されている。
Li らによって研究された分散保存損失圧縮の問題と一致する完全現実主義の場合には、エンコーダとデコーダの間の共通ランダム性の特定量を許容する RDP トレードオフの符号化定理が提供される。
既存のRDPトレードオフは、共通ランダム性の量を無限にすることで回復される。
二次ガウスの場合を詳細に検討する。
関連論文リスト
- The Rate-Distortion-Perception Trade-off: The Role of Private Randomness [53.81648040452621]
圧縮速度がソースのエントロピーよりも低い場合、プライベートなランダム性は役に立たないことを示す。
圧縮速度がソースのエントロピーよりも低い場合, プライベートなランダム性が有用でないことを示す。
論文 参考訳(メタデータ) (2024-04-01T13:36:01Z) - Output-Constrained Lossy Source Coding With Application to Rate-Distortion-Perception Theory [9.464977414419332]
共通乱数に制限のある出力制約付き損失音源符号化の歪み速度関数を解析した。
ソース分布と再構成分布の両方がガウス分布であるときに明示的な表現が得られる。
論文 参考訳(メタデータ) (2024-03-21T21:51:36Z) - Rate-Distortion-Perception Tradeoff Based on the
Conditional-Distribution Perception Measure [33.084834042565895]
本研究では,大きなブロック長の制限下で,メモリレスソースモデルに対するRDPのトレードオフについて検討する。
我々の知覚尺度は、エンコーダ出力に条件付されたソースの分布と再構成シーケンスのばらつきに基づく。
論文 参考訳(メタデータ) (2024-01-22T18:49:56Z) - The Curious Price of Distributional Robustness in Reinforcement Learning with a Generative Model [61.87673435273466]
本稿では,強化学習(RL)におけるモデルロバスト性を検討した。
我々は,デプロイ環境が,名目MDPに規定された不確実性に陥る場合に,最悪の場合のパフォーマンスを最適化する政策を学習することを目的とした,分布的に堅牢なマルコフ決定プロセス(RMDP)の枠組みを採用する。
論文 参考訳(メタデータ) (2023-05-26T02:32:03Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Contextual bandits with concave rewards, and an application to fair
ranking [108.48223948875685]
CBCR (Contextual Bandits with Concave Rewards) に対する反省点のある最初のアルゴリズムを提案する。
我々は,スカラー・リワード問題に対するCBCRの後悔から,新たな縮小を導出した。
推薦の公正さによって動機づけられたCBCRの特別事例として,ランク付けと公正を意識した目的について述べる。
論文 参考訳(メタデータ) (2022-10-18T16:11:55Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Universal Rate-Distortion-Perception Representations for Lossy
Compression [31.28856752892628]
我々は、エンコーダを固定し、デコーダを変更して歪みや知覚制約の集合内の任意の点を達成できる普遍表現の概念を考える。
対応する情報理論の普遍的速度歪曲知覚が、近似的な意味で操作可能であることを証明した。
論文 参考訳(メタデータ) (2021-06-18T18:52:08Z) - Implicit Distributional Reinforcement Learning [61.166030238490634]
2つのディープジェネレータネットワーク(DGN)上に構築された暗黙の分布型アクター批判(IDAC)
半単純アクター (SIA) は、フレキシブルなポリシー分布を利用する。
我々は,代表的OpenAI Gym環境において,IDACが最先端のアルゴリズムより優れていることを観察する。
論文 参考訳(メタデータ) (2020-07-13T02:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。