論文の概要: Inference-time Scaling of Diffusion Models through Classical Search
- arxiv url: http://arxiv.org/abs/2505.23614v1
- Date: Thu, 29 May 2025 16:22:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.982283
- Title: Inference-time Scaling of Diffusion Models through Classical Search
- Title(参考訳): 古典探索による拡散モデルの推測時間スケーリング
- Authors: Xiangcheng Zhang, Haowei Lin, Haotian Ye, James Zou, Jianzhu Ma, Yitao Liang, Yilun Du,
- Abstract要約: 本稿では,局所的およびグローバルな探索を編成し,生成空間を効率的にナビゲートする汎用フレームワークを提案する。
我々は,計画,オフライン強化学習,画像生成など,さまざまな課題領域に対するアプローチを評価した。
その結果,古典探索は拡散モデルにおける推論時間スケーリングの原理的かつ実践的な基礎を提供することを示した。
- 参考スコア(独自算出の注目度): 54.529322629644376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical search algorithms have long underpinned modern artificial intelligence. In this work, we tackle the challenge of inference-time control in diffusion models -- adapting generated outputs to meet diverse test-time objectives -- using principles from classical search. We propose a general framework that orchestrates local and global search to efficiently navigate the generative space. It employs a theoretically grounded local search via annealed Langevin MCMC and performs compute-efficient global exploration using breadth-first and depth-first tree search. We evaluate our approach on a range of challenging domains, including planning, offline reinforcement learning, and image generation. Across all tasks, we observe significant gains in both performance and efficiency. These results show that classical search provides a principled and practical foundation for inference-time scaling in diffusion models. Project page at diffusion-inference-scaling.github.io.
- Abstract(参考訳): 古典的な検索アルゴリズムは、長い間現代の人工知能に根ざしてきた。
本研究では、古典的な探索の原理を用いて、拡散モデルにおける推論時制御(様々なテスト時間目標を満たすために生成された出力を適用する)の課題に取り組む。
本稿では,局所的およびグローバルな探索を編成し,生成空間を効率的にナビゲートする汎用フレームワークを提案する。
理論上はアンニールしたLangevin MCMCによる局所探索を採用し、幅優先と深さ優先のツリー探索を用いて計算効率の高いグローバル探索を行う。
我々は,計画,オフライン強化学習,画像生成など,さまざまな課題領域に対するアプローチを評価した。
すべてのタスクにおいて、パフォーマンスと効率の両方において大きな利益が得られます。
これらの結果は,古典探索が拡散モデルにおける推論時間スケーリングの原理的かつ実践的な基礎を提供することを示している。
プロジェクトページ - diffusion-inference-scaling.github.io
関連論文リスト
- Enhancing LLM Reasoning with Reward-guided Tree Search [95.06503095273395]
o1のような推論アプローチは困難で、研究者はこのオープンな研究領域を前進させようとさまざまな試みを行ってきた。
本稿では,報酬誘導木探索アルゴリズムを用いて,LLMの推論能力を高めるための予備的な検討を行う。
論文 参考訳(メタデータ) (2024-11-18T16:15:17Z) - Self-Supervised Learning for Covariance Estimation [3.04585143845864]
推論時に局所的に適用されるニューラルネットワークをグローバルに学習することを提案する。
アーキテクチャは、一般的な注目メカニズムに基づいている。
基礎モデルとして事前訓練し、レーダーやハイパースペクトル画像の適応目標検出など、様々な下流タスクに再利用することができる。
論文 参考訳(メタデータ) (2024-03-13T16:16:20Z) - Differentiable Tree Search Network [14.972768001402898]
微分可能木探索ネットワーク(D-TSN)は、誘導バイアスを大幅に強化する新しいニューラルネットワークアーキテクチャである。
D-TSNは、完全に差別化可能なオンライン検索を行うために、学習された世界モデルを採用している。
D-TSNは、一般的なモデルフリーおよびモデルベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-22T02:33:38Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Neural Algorithmic Reasoning Without Intermediate Supervision [21.852775399735005]
我々は、中間的監督に訴えることなく、入出力ペアからのみニューラルネットワーク推論を学ぶことに集中する。
我々は、アルゴリズムの軌跡にアクセスできることなく、モデルの中間計算を正規化できる自己教師対象を構築する。
CLRSic Algorithmic Reasoning Benchmarkのタスクにおいて,提案手法はトラジェクトリを教師する手法と競合することを示す。
論文 参考訳(メタデータ) (2023-06-23T09:57:44Z) - Efficient Model Performance Estimation via Feature Histories [27.008927077173553]
ニューラルネットワーク設計のタスクにおける重要なステップは、モデルの性能を評価することである。
この研究では、トレーニングの初期段階におけるネットワークの機能の進化履歴を使用して、プロキシ分類器を構築します。
本手法は,複数の探索アルゴリズムと組み合わせ,より幅広いタスクに対するより良い解を見つけることができることを示す。
論文 参考訳(メタデータ) (2021-03-07T20:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。