論文の概要: Temporal Score Rescaling for Temperature Sampling in Diffusion and Flow Models
- arxiv url: http://arxiv.org/abs/2510.01184v1
- Date: Wed, 01 Oct 2025 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.723089
- Title: Temporal Score Rescaling for Temperature Sampling in Diffusion and Flow Models
- Title(参考訳): 拡散・流れモデルにおける温度サンプリングのための時間スコア再スケーリング
- Authors: Yanbo Xu, Yu Wu, Sungjae Park, Zhizhuo Zhou, Shubham Tulsiani,
- Abstract要約: 本稿では,フローマッチングモデルのサンプリング多様性を判断するメカニズムを提案する。
これらの再スケーリングにより、局所的なサンプリング温度を効果的に制御できることを示す。
- 参考スコア(独自算出の注目度): 30.36841165328262
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a mechanism to steer the sampling diversity of denoising diffusion and flow matching models, allowing users to sample from a sharper or broader distribution than the training distribution. We build on the observation that these models leverage (learned) score functions of noisy data distributions for sampling and show that rescaling these allows one to effectively control a `local' sampling temperature. Notably, this approach does not require any finetuning or alterations to training strategy, and can be applied to any off-the-shelf model and is compatible with both deterministic and stochastic samplers. We first validate our framework on toy 2D data, and then demonstrate its application for diffusion models trained across five disparate tasks -- image generation, pose estimation, depth prediction, robot manipulation, and protein design. We find that across these tasks, our approach allows sampling from sharper (or flatter) distributions, yielding performance gains e.g., depth prediction models benefit from sampling more likely depth estimates, whereas image generation models perform better when sampling a slightly flatter distribution. Project page: https://temporalscorerescaling.github.io
- Abstract(参考訳): 本研究では,拡散流モデルと流速マッチングモデルのサンプリングの多様性を把握し,学習分布よりもシャープな分布や広い分布からサンプルを採取する機構を提案する。
これらのモデルがサンプリングのためにノイズの多いデータ分布の(学習した)スコア関数を利用しており、再スケーリングによって'局所'サンプリング温度を効果的に制御できることを示す。
特に、このアプローチはトレーニング戦略に微調整や修正を一切必要とせず、任意のオフ・ザ・シェルフモデルに適用でき、決定論的および確率的サンプルラーの両方と互換性がある。
まず、おもちゃの2Dデータに関するフレームワークを検証し、画像生成、ポーズ推定、深さ予測、ロボット操作、タンパク質設計という5つの異なるタスクで訓練された拡散モデルへの適用を実証する。
提案手法では, よりシャープな(あるいはフラットな)分布からのサンプリングが可能であり, 性能向上, 深度予測モデルではより深い推定値のサンプリングが期待できるのに対し, 画像生成モデルはわずかに平坦な分布をサンプリングする場合に, より優れた性能が得られることがわかった。
プロジェクトページ: https://temporalscorerescaling.github.io
関連論文リスト
- Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [62.640128548633946]
離散拡散モデルに対する粒子ギブズサンプリングに基づく新しい推論時間スケーリング手法を提案する。
提案手法は,報酬誘導テキスト生成タスクにおける事前推定時間戦略を常に上回る。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Multimodal Atmospheric Super-Resolution With Deep Generative Models [1.9367648935513015]
スコアベース拡散モデリング(Score-based diffusion modeling)は、複雑な分布からサンプリングできる生成機械学習アルゴリズムである。
本稿では,高次元力学系の超解像にそのような概念を適用し,低分解能および実験的に観察されたスパースセンサ測定のリアルタイム利用性を考える。
論文 参考訳(メタデータ) (2025-06-28T06:47:09Z) - Accelerated Diffusion Models via Speculative Sampling [89.43940130493233]
投機的サンプリングは、大規模言語モデルにおける推論を加速する一般的な手法である。
我々は投機的サンプリングを拡散モデルに拡張し、連続したベクトル値のマルコフ連鎖を介してサンプルを生成する。
本稿では,ドラフトモデルをトレーニングする必要のない,シンプルで効果的なアプローチを含む,さまざまなドラフト戦略を提案する。
論文 参考訳(メタデータ) (2025-01-09T16:50:16Z) - A Simple Early Exiting Framework for Accelerated Sampling in Diffusion Models [14.859580045688487]
拡散モデルの現実的なボトルネックはサンプリング速度である。
スコア推定に必要な計算を適応的に割り当てる新しいフレームワークを提案する。
本研究では,画像品質を損なうことなく,拡散モデルのサンプリングスループットを大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-08-12T05:33:45Z) - Informed Correctors for Discrete Diffusion Models [27.295990499157814]
離散拡散モデルに対する予測・相関型サンプリング手法を提案する。
情報補正器は,誤差が少なく,FIDスコアが向上した優れたサンプルを連続的に生成することを示す。
本結果は,離散拡散を用いた高速かつ高忠実な生成のための情報補正器の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-07-30T23:29:29Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z) - Autoregressive Denoising Diffusion Models for Multivariate Probabilistic
Time Series Forecasting [4.1573460459258245]
拡散確率モデル(拡散確率モデル)は、スコアマッチングやエネルギーベースの手法と密接に結びついている潜在変数モデルのクラスである。
我々のモデルは、データ可能性の変動境界を最適化して勾配を学習し、推論時にホワイトノイズを関心の分布のサンプルに変換する。
論文 参考訳(メタデータ) (2021-01-28T15:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。