論文の概要: Diffusion Tree Sampling: Scalable inference-time alignment of diffusion models
- arxiv url: http://arxiv.org/abs/2506.20701v1
- Date: Wed, 25 Jun 2025 17:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.826616
- Title: Diffusion Tree Sampling: Scalable inference-time alignment of diffusion models
- Title(参考訳): 拡散木サンプリング:拡散モデルのスケーラブルな推論時間アライメント
- Authors: Vineet Jain, Kusha Sareen, Mohammad Pedramfar, Siamak Ravanbakhsh,
- Abstract要約: 事前訓練された拡散モデルを推論時に新しい目的に適応させることは、生成的モデリングにおいて未解決の問題である。
そこで本研究では,終末報酬を拡散連鎖を通じて伝播させることにより,報奨目標密度から抽出するツリーベースアプローチを提案する。
以前の世代からの情報を再利用することで、任意のアルゴリズムが追加の計算を着実により良いサンプルに変換する。
- 参考スコア(独自算出の注目度): 13.312007032203857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting a pretrained diffusion model to new objectives at inference time remains an open problem in generative modeling. Existing steering methods suffer from inaccurate value estimation, especially at high noise levels, which biases guidance. Moreover, information from past runs is not reused to improve sample quality, resulting in inefficient use of compute. Inspired by the success of Monte Carlo Tree Search, we address these limitations by casting inference-time alignment as a search problem that reuses past computations. We introduce a tree-based approach that samples from the reward-aligned target density by propagating terminal rewards back through the diffusion chain and iteratively refining value estimates with each additional generation. Our proposed method, Diffusion Tree Sampling (DTS), produces asymptotically exact samples from the target distribution in the limit of infinite rollouts, and its greedy variant, Diffusion Tree Search (DTS$^\star$), performs a global search for high reward samples. On MNIST and CIFAR-10 class-conditional generation, DTS matches the FID of the best-performing baseline with up to $10\times$ less compute. In text-to-image generation and language completion tasks, DTS$^\star$ effectively searches for high reward samples that match best-of-N with up to $5\times$ less compute. By reusing information from previous generations, we get an anytime algorithm that turns additional compute into steadily better samples, providing a scalable approach for inference-time alignment of diffusion models.
- Abstract(参考訳): 事前訓練された拡散モデルを推論時に新しい目的に適応させることは、生成的モデリングにおいて未解決の問題である。
既存のステアリング法は,特に誘導に偏った高騒音レベルにおいて,不正確な値推定に悩まされている。
さらに、過去の実行時の情報は、サンプル品質を改善するために再利用されないため、計算の効率が悪くなる。
モンテカルロ木探索の成功に触発されて、過去の計算を再利用する探索問題として推論時間アライメントをキャストすることで、これらの制限に対処する。
そこで,本研究では,終末報酬を拡散連鎖を通じて伝播させ,付加世代毎に反復的に値推定を精製することにより,報奨目標密度から標本化するツリーベース手法を提案する。
提案手法である拡散木サンプリング (DTS) は, 無限ロールアウトの極限における対象分布から漸近的に正確なサンプルを生成し, そのグレディな変種である拡散木探索 (DTS$^\star$) は, 高報酬サンプルのグローバル検索を行う。
MNISTとCIFAR-10のクラス条件生成では、DTSは最高性能のベースラインのFIDを最大10\times$少ない計算で一致させる。
テキスト-画像生成と言語補完タスクでは、DTS$^\star$は、Nの最高値と最大5\times$少ない計算量で一致した高報酬サンプルを効果的に検索する。
従来の世代からの情報を再利用することで、新たな計算を着実により良いサンプルに変換するアルゴリズムが得られ、拡散モデルの推論時間アライメントのためのスケーラブルなアプローチを提供する。
関連論文リスト
- Test-Time Scaling of Diffusion Models via Noise Trajectory Search [7.243632426715941]
我々は,デミキシングの中間段階において,極端時間と局所的なエクスプロイトをグローバルに探索する$epsilon$-greedy検索アルゴリズムを導入する。
EDMと安定拡散の実験は、クラス条件/テキスト-画像生成のための最先端スコアを明らかにする。
論文 参考訳(メタデータ) (2025-05-24T19:13:29Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Active Diffusion Subsampling [15.028061496012924]
最大エントロピーサンプリングでは、最も高いエントロピーを持つと思われる測定位置を選択し、約$x$の不確実性を最小化する。
近年,拡散モデルにより誘導拡散を用いた高次元信号の高品質後部サンプルが得られた。
誘導拡散を用いたインテリジェントサブサンプリングマスクの設計手法であるアクティブ拡散サブサンプリング(ADS)を提案する。
論文 参考訳(メタデータ) (2024-06-20T15:05:06Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Convergence for score-based generative modeling with polynomial
complexity [9.953088581242845]
我々は、Scoreベースの生成モデルの背後にあるコアメカニックに対する最初の収束保証を証明した。
以前の作品と比較すると、時間的に指数関数的に増加するエラーや、次元の呪いに苦しむエラーは発生しない。
予測器・相関器はどちらの部分のみを使用するよりも収束性が高いことを示す。
論文 参考訳(メタデータ) (2022-06-13T14:57:35Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。