論文の概要: Steering diffusion models with quadratic rewards: a fine-grained analysis
- arxiv url: http://arxiv.org/abs/2602.16570v1
- Date: Wed, 18 Feb 2026 16:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.645382
- Title: Steering diffusion models with quadratic rewards: a fine-grained analysis
- Title(参考訳): 2次報酬を持つステアリング拡散モデル:きめ細かい解析
- Authors: Ankur Moitra, Andrej Risteski, Dhruv Rohatgi,
- Abstract要約: 本稿では,報奨型拡散モデルから抽出する作業について考察する。
線形逆傾きは常に効率的にサンプリング可能であることを示す。
- 参考スコア(独自算出の注目度): 40.77652696501005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inference-time algorithms are an emerging paradigm in which pre-trained models are used as subroutines to solve downstream tasks. Such algorithms have been proposed for tasks ranging from inverse problems and guided image generation to reasoning. However, the methods currently deployed in practice are heuristics with a variety of failure modes -- and we have very little understanding of when these heuristics can be efficiently improved. In this paper, we consider the task of sampling from a reward-tilted diffusion model -- that is, sampling from $p^{\star}(x) \propto p(x) \exp(r(x))$ -- given a reward function $r$ and pre-trained diffusion oracle for $p$. We provide a fine-grained analysis of the computational tractability of this task for quadratic rewards $r(x) = x^\top A x + b^\top x$. We show that linear-reward tilts are always efficiently sampleable -- a simple result that seems to have gone unnoticed in the literature. We use this as a building block, along with a conceptually new ingredient -- the Hubbard-Stratonovich transform -- to provide an efficient algorithm for sampling from low-rank positive-definite quadratic tilts, i.e. $r(x) = x^\top A x$ where $A$ is positive-definite and of rank $O(1)$. For negative-definite tilts, i.e. $r(x) = - x^\top A x$ where $A$ is positive-definite, we prove that the problem is intractable even if $A$ is of rank 1 (albeit with exponentially-large entries).
- Abstract(参考訳): 推論時アルゴリズムは、トレーニング済みのモデルをサブルーチンとして使用して下流タスクを解決する、新たなパラダイムである。
このようなアルゴリズムは、逆問題やガイド画像生成から推論まで幅広いタスクに対して提案されている。
しかし、現在実際にデプロイされているメソッドは、さまざまな障害モードを持つヒューリスティックであり、これらのヒューリスティックを効率的に改善できる時期についてはほとんど理解していません。
本稿では,報奨関数が$r$,事前学習された拡散オラクルが$p$に対して,$p^{\star}(x) \propto p(x) \exp(r(x))$からサンプリングする作業について考察する。
2次報酬$r(x) = x^\top A x + b^\top x$に対して、このタスクの計算的トラクタビリティを詳細に解析する。
線形逆傾きは常に効率的にサンプリング可能であることが示され、これは文献では気付かれなかったと思われる単純な結果である。概念的には新しい成分であるHubbard-Stratonovich変換とともに、低ランクの正定値二次傾きからサンプリングする効率的なアルゴリズム、すなわち$r(x) = x^\top A x$($A$は正定値で、ランクは$O(1)$) である。
例えば$r(x) = - x^\top A x$ where $A$ is positive-definite, we prove that the problem is intractable if $A$ is of rank 1 (ただし指数的に大きいエントリがある)。
関連論文リスト
- Information-Computation Tradeoffs for Noiseless Linear Regression with Oblivious Contamination [65.37519531362157]
このタスクに対する効率的な統計的クエリアルゴリズムは、VSTATの複雑さを少なくとも$tildeOmega(d1/2/alpha2)$で要求する。
論文 参考訳(メタデータ) (2025-10-12T15:42:44Z) - Injecting Measurement Information Yields a Fast and Noise-Robust Diffusion-Based Inverse Problem Solver [26.516117473433795]
条件付き後続平均 $mathbbE [mathbfx_t, mathbfy]$ を推定する。
結果として得られる予測は、任意の標準サンプリングに組み込むことができ、高速でメモリ効率の良い逆解法をもたらす。
論文 参考訳(メタデータ) (2025-08-05T00:01:41Z) - Entangled Mean Estimation in High-Dimensions [36.97113089188035]
信号のサブセットモデルにおける高次元エンタングルド平均推定の課題について検討する。
最適誤差(polylogarithmic factor)は$f(alpha,N) + sqrtD/(alpha N)$であり、$f(alpha,N)$は1次元問題の誤差であり、第二項は準ガウス誤差率である。
論文 参考訳(メタデータ) (2025-01-09T18:31:35Z) - Inverting the Leverage Score Gradient: An Efficient Approximate Newton Method [10.742859956268655]
本稿では,レバレッジスコア勾配から固有モデルパラメータを復元することを目的とする。
具体的には、レバレッジスコア勾配の逆転を$g(x)$として精査する。
論文 参考訳(メタデータ) (2024-08-21T01:39:42Z) - Statistical Inference of Constrained Stochastic Optimization via Sketched Sequential Quadratic Programming [53.63469275932989]
制約付き非線形最適化問題のオンライン統計的推測を考察する。
これらの問題を解決するために、逐次二次計画法(StoSQP)を適用する。
論文 参考訳(メタデータ) (2022-05-27T00:34:03Z) - Gradient-based Counterfactual Explanations using Tractable Probabilistic
Models [20.770168600755877]
ファクトファクトの例は、機械学習モデルに魅力的な説明のクラスである。
現在のアプローチは主に複雑な最適化によってこの課題を解決する。
本稿では,2つの勾配計算のみを用いて,これらの問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T16:05:43Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。