論文の概要: OSCAR: One-Step Diffusion Codec Across Multiple Bit-rates
- arxiv url: http://arxiv.org/abs/2505.16091v1
- Date: Thu, 22 May 2025 00:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.952098
- Title: OSCAR: One-Step Diffusion Codec Across Multiple Bit-rates
- Title(参考訳): OSCAR:複数ビットレートで1ステップの拡散コーデック
- Authors: Jinpei Guo, Yifei Ji, Zheng Chen, Kai Liu, Min Liu, Wang Rao, Wenbo Li, Yong Guo, Yulun Zhang,
- Abstract要約: 事前訓練された潜伏拡散モデルでは、画像圧縮が失われる可能性が強い。
既存の手法のほとんどは、ランダムノイズから反復的にデノイングすることで、イメージを再構成する。
我々はOSCARと呼ばれる複数のビットレートにまたがる1ステップ拡散を提案する。
- 参考スコア(独自算出の注目度): 52.65036099944483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained latent diffusion models have shown strong potential for lossy image compression, owing to their powerful generative priors. Most existing diffusion-based methods reconstruct images by iteratively denoising from random noise, guided by compressed latent representations. While these approaches have achieved high reconstruction quality, their multi-step sampling process incurs substantial computational overhead. Moreover, they typically require training separate models for different compression bit-rates, leading to significant training and storage costs. To address these challenges, we propose a one-step diffusion codec across multiple bit-rates. termed OSCAR. Specifically, our method views compressed latents as noisy variants of the original latents, where the level of distortion depends on the bit-rate. This perspective allows them to be modeled as intermediate states along a diffusion trajectory. By establishing a mapping from the compression bit-rate to a pseudo diffusion timestep, we condition a single generative model to support reconstructions at multiple bit-rates. Meanwhile, we argue that the compressed latents retain rich structural information, thereby making one-step denoising feasible. Thus, OSCAR replaces iterative sampling with a single denoising pass, significantly improving inference efficiency. Extensive experiments demonstrate that OSCAR achieves superior performance in both quantitative and visual quality metrics. The code and models will be released at https://github.com/jp-guo/OSCAR.
- Abstract(参考訳): 事前訓練された潜伏拡散モデルでは、その強力な生成先行により、画像圧縮が失われる可能性が強い。
既存の拡散法のほとんどは、圧縮された潜在表現によって導かれるランダムノイズから反復的にデノイングすることで、イメージを再構成する。
これらの手法は高い再構成品質を達成しているが、その多段階サンプリングプロセスはかなりの計算オーバーヘッドを発生させる。
さらに、通常、異なる圧縮ビットレートの別々のモデルをトレーニングする必要があるため、トレーニングとストレージコストが大幅に削減される。
これらの課題に対処するために,複数のビットレートにまたがる1ステップ拡散コーデックを提案する。
OSCARとも呼ばれる。
具体的には,提案手法は,圧縮された潜伏音を,歪みのレベルがビットレートに依存する元の潜伏音のノイズのある変種とみなす。
この観点は拡散軌道に沿った中間状態としてモデル化することができる。
圧縮ビットレートから擬似拡散時間ステップへのマッピングを確立することにより、複数のビットレートでの再構成をサポートするために単一の生成モデルを条件とする。
一方、圧縮された潜伏剤は豊富な構造情報を保持しており、これにより1段階の遮音が実現可能であると論じる。
したがって、OSCARは反復サンプリングを1つの復調パスに置き換え、推論効率を大幅に改善する。
大規模な実験により、OSCARは量的および視覚的品質の指標において優れた性能を発揮することが示された。
コードとモデルはhttps://github.com/jp-guo/OSCARで公開される。
関連論文リスト
- One-Step Diffusion-Based Image Compression with Semantic Distillation [25.910952778218146]
OneDCは1ステップ拡散に基づく生成画像コーデックである。
OneDCは、ワンステップ生成でも知覚品質を達成する。
論文 参考訳(メタデータ) (2025-05-22T13:54:09Z) - Multi-Scale Invertible Neural Network for Wide-Range Variable-Rate Learned Image Compression [90.59962443790593]
本稿では,制限を克服するために,可逆変換に基づく可変レート画像圧縮モデルを提案する。
具体的には、入力画像をマルチスケールの潜在表現にマッピングする、軽量なマルチスケール非可逆ニューラルネットワークを設計する。
実験結果から,提案手法は既存の可変レート法と比較して最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T09:08:39Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Rethinking Video Tokenization: A Conditioned Diffusion-based Approach [58.164354605550194]
新しいトークン化ツールであるDiffusion Conditioned-based Gene Tokenizerは、GANベースのデコーダを条件付き拡散モデルで置き換える。
再建に基本的MSE拡散損失とKL項,LPIPSを併用した訓練を行った。
CDTのスケールダウン版(3$times inference speedup)でさえ、トップベースラインと互換性がある。
論文 参考訳(メタデータ) (2025-03-05T17:59:19Z) - Lossy Image Compression with Foundation Diffusion Models [10.407650300093923]
本研究は,拡散を用いた量子化誤差の除去をデノナイジングタスクとして定式化し,送信された遅延画像の損失情報を復元する。
当社のアプローチでは,完全な拡散生成プロセスの10%未満の実行が可能であり,拡散モデルにアーキテクチャ的な変更は不要である。
論文 参考訳(メタデータ) (2024-04-12T16:23:42Z) - Lossy Image Compression with Conditional Diffusion Models [25.158390422252097]
本稿では,拡散生成モデルを用いた画像圧縮のエンドツーエンド最適化について概説する。
VAEベースのニューラル圧縮とは対照的に、(平均)デコーダは決定論的ニューラルネットワークであり、私たちのデコーダは条件付き拡散モデルである。
提案手法では,GANモデルよりもFIDスコアが強く,VAEモデルとの競合性能も高い。
論文 参考訳(メタデータ) (2022-09-14T21:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。