論文の概要: Training-Free Rate-Distortion-Perception Traversal With Diffusion
- arxiv url: http://arxiv.org/abs/2603.04005v1
- Date: Wed, 04 Mar 2026 12:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.30677
- Title: Training-Free Rate-Distortion-Perception Traversal With Diffusion
- Title(参考訳): 拡散を伴う学習自由速度歪み知覚トラバーサル
- Authors: Yuhan Wang, Suzhi Bi, Ying-Jun Angela Zhang,
- Abstract要約: 本研究では,事前学習した拡散モデルを用いて表面全体を横断する学習自由フレームワークを提案する。
本研究は,ニューラルネットワーク圧縮に対する実用的,理論的基礎的なアプローチを確立した。
- 参考スコア(独自算出の注目度): 44.11458502528137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rate-distortion-perception (RDP) tradeoff characterizes the fundamental limits of lossy compression by jointly considering bitrate, reconstruction fidelity, and perceptual quality. While recent neural compression methods have improved perceptual performance, they typically operate at fixed points on the RDP surface, requiring retraining to target different tradeoffs. In this work, we propose a training-free framework that leverages pre-trained diffusion models to traverse the entire RDP surface. Our approach integrates a reverse channel coding (RCC) module with a novel score-scaled probability flow ODE decoder. We theoretically prove that the proposed diffusion decoder is optimal for the distortion-perception tradeoff under AWGN observations and that the overall framework with the RCC module achieves the optimal RDP function in the Gaussian case. Empirical results across multiple datasets demonstrate the framework's flexibility and effectiveness in navigating the ternary RDP tradeoff using pre-trained diffusion models. Our results establish a practical and theoretically grounded approach to adaptive, perception-aware compression.
- Abstract(参考訳): レート歪み知覚(RDP)トレードオフは、ビットレート、再構成忠実度、知覚品質を共同で検討することにより、損失圧縮の基本的な限界を特徴づける。
最近のニューラル圧縮法では知覚性能が向上しているが、通常、RDP表面の固定点で動作し、異なるトレードオフをターゲットとして再訓練を必要とする。
本研究では,事前学習した拡散モデルを用いてRDP表面全体を横断する学習自由フレームワークを提案する。
提案手法では,逆チャネル符号化(RCC)モジュールと新しいスコアスケールの確率フローODEデコーダを統合する。
提案した拡散復号器は, AWGN観測下での歪み知覚トレードオフに最適であることを示すとともに, RCCモジュールを用いた全体のフレームワークがガウスの場合, 最適RCP関数を達成することを理論的に証明する。
複数のデータセットにまたがる実証的な結果は、事前訓練された拡散モデルを用いて第三次RDPトレードオフをナビゲートする際のフレームワークの柔軟性と有効性を示している。
その結果,適応的・知覚的圧縮に対する実用的・理論的基礎的なアプローチが確立された。
関連論文リスト
- Benchmarking Few-shot Transferability of Pre-trained Models with Improved Evaluation Protocols [123.73663884421272]
より強力な事前訓練モデルと改良された適応アルゴリズムによって、わずかなショット転送が革新されている。
FEWTRANSは10種類のデータセットを含む総合的なベンチマークである。
FEWTRANS をリリースすることにより,数発の転写学習研究において再現性の向上を合理化するための厳密な "ルーラー" の提供を目指す。
論文 参考訳(メタデータ) (2026-02-28T05:41:57Z) - SDAR: A Synergistic Diffusion-AutoRegression Paradigm for Scalable Sequence Generation [62.14510717860079]
本稿では, 自己回帰モデルの学習効率を, 拡散の並列推論能力で統一するSynergistic Diffusion-Autoregressionパラダイムを提案する。
SDARは、十分に訓練された自己回帰モデル(AR)を、簡潔でデータ効率のよい適応を通じてブロックワイズ拡散モデルに変換する、軽量なパラダイム変換を実行する。
この知見に基づいて、SDARは最小コストで効率的なAR-拡散変換を実現し、並列生成を可能にしながら、ARレベルのパフォーマンスを維持する。
論文 参考訳(メタデータ) (2025-10-07T17:29:28Z) - Traversing Distortion-Perception Tradeoff using a Single Score-Based Generative Model [35.91741991271154]
歪み知覚トレードオフは、歪みメトリクスと知覚品質の根本的な矛盾を明らかにします。
本稿では,1つのスコアネットワークがDPトレードオフを効果的かつ柔軟に越えられることを示す。
論文 参考訳(メタデータ) (2025-03-26T07:37:53Z) - Optimal Neural Compressors for the Rate-Distortion-Perception Tradeoff [29.69773024077467]
ニューラル圧縮における最近の取り組みは、認識制約がソースと再構築が統計的に異なることを確実にする速度-歪み-知覚のトレードオフに焦点を当てている。
古典的な速度歪み理論は、最適圧縮機は効率よく空間を充填すべきであることを示しているが、さらに、エンコーダとデコーダの間で共有される無限ランダム性は最適性のために必要であることを示している。
論文 参考訳(メタデータ) (2025-03-21T22:18:52Z) - SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Reconciling Stochastic and Deterministic Strategies for Zero-shot Image Restoration using Diffusion Model in Dual [47.141811103506036]
我々はDualにおけるReconciling Model(RDMD)と呼ばれる新しいゼロショット画像復元手法を提案する。
RDMDはbftextsingle事前学習拡散モデルのみを使用してテキスト2正規化器を構成する。
提案手法は,FFHQ と ImageNet の両方のデータセットに対する既存手法と比較して,優れた結果が得られる。
論文 参考訳(メタデータ) (2025-03-03T08:25:22Z) - Half-order Fine-Tuning for Diffusion Model: A Recursive Likelihood Ratio Optimizer [16.103949557802988]
確率拡散モデル(DM)は、連鎖構造を通して推論することで内容を生成する。
現代の手法は強化学習 (RL) と切り離されたバックプロパゲーション (BP) に基づいている
DMのためのRLR(Recursive Likelihood Ratio)ファインチューニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-02-02T03:00:26Z) - Rectified Diffusion Guidance for Conditional Generation [94.83538269086613]
CFGの背後にある理論を再検討し、不適切な組合せ係数(textiti.e.)が生成分布を期待的にシフトさせることを厳密に確認する。
提案手法は, 強みを考慮すれば, textbftextitform ソリューションが有効であることを示す。
実世界のデータに関する実証的な証拠は、我々の設計と既存の最先端拡散モデルとの整合性を実証している。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Test-time adaptation for image compression with distribution regularization [43.490138269939344]
簡単なベイズ近似によるテキスト分布正規化を導入し、プラグアンドプレイ方式でより優れた関節確率近似を学習する。
提案手法は, 既存のTTA-IC法に柔軟に統合し, 漸進的な利点を生かしてR-D性能を向上する。
論文 参考訳(メタデータ) (2024-10-16T03:25:16Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。