論文の概要: Greed is Good: A Unifying Perspective on Guided Generation
- arxiv url: http://arxiv.org/abs/2502.08006v2
- Date: Mon, 19 May 2025 17:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.451786
- Title: Greed is Good: A Unifying Perspective on Guided Generation
- Title(参考訳): Greed: ガイドドジェネレーションの統一的視点
- Authors: Zander W. Blasingame, Chen Liu,
- Abstract要約: 勾配に基づくガイダンスの問題を解決するために,2種類のテクニックが出現している。
その結果,これら2つの家族は,後部指導で実際に一体化できることが判明した。
次に,この2つのファミリ間の補間手法を用いて,誘導勾配の計算と精度のトレードオフを可能にする方法を示す。
- 参考スコア(独自算出の注目度): 2.0795007613453445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training-free guided generation is a widely used and powerful technique that allows the end user to exert further control over the generative process of flow/diffusion models. Generally speaking, two families of techniques have emerged for solving this problem for gradient-based guidance: namely, posterior guidance (i.e., guidance via projecting the current sample to the target distribution via the target prediction model) and end-to-end guidance (i.e., guidance by performing backpropagation throughout the entire ODE solve). In this work, we show that these two seemingly separate families can actually be unified by looking at posterior guidance as a greedy strategy of end-to-end guidance. We explore the theoretical connections between these two families and provide an in-depth theoretical of these two techniques relative to the continuous ideal gradients. Motivated by this analysis we then show a method for interpolating between these two families enabling a trade-off between compute and accuracy of the guidance gradients. We then validate this work on several inverse image problems and property-guided molecular generation.
- Abstract(参考訳): トレーニングフリーガイドドジェネレーションは、エンドユーザーがフロー/拡散モデルの生成過程をさらに制御できる、広く使われ、強力な技術である。
一般的には、勾配に基づくガイダンス(すなわち、現在のサンプルをターゲット予測モデルを介してターゲット分布に投影する誘導)とエンドツーエンドガイダンス(すなわち、ODE全体を通してバックプロパゲーションを行う誘導)の2つの手法が、この問題を解決するために登場した。
本研究は,これら2つの家族を,エンド・ツー・エンド・エンド・ガイドの欲張り戦略として,後部指導に目を向けることで,実際に一体化できることを示す。
これら2つの族の間の理論的関係を探求し、連続的理想勾配に対してこれらの2つの技法の深い理論を提供する。
この分析により,この2つのファミリ間の補間手法が導出勾配の計算と精度のトレードオフを可能にすることを示す。
そこで本研究は,いくつかの逆画像問題と特性誘導分子生成について検証する。
関連論文リスト
- Slow Thinking for Sequential Recommendation [88.46598279655575]
本稿では,STREAM-Recという新しいスローシンキングレコメンデーションモデルを提案する。
弊社のアプローチは、過去のユーザの振る舞いを分析し、多段階の熟考的推論プロセスを生成し、パーソナライズされたレコメンデーションを提供する。
具体的には,(1)レコメンデーションシステムにおける適切な推論パターンを特定すること,(2)従来のレコメンデーションシステムの推論能力を効果的に刺激する方法を検討すること,の2つの課題に焦点を当てる。
論文 参考訳(メタデータ) (2025-04-13T15:53:30Z) - Beyond Fine-Tuning: A Systematic Study of Sampling Techniques in Personalized Image Generation [2.9631016562930546]
学習概念の忠実さと、様々な文脈で生成する能力のバランスをとることは、重大な課題である。
既存の手法はしばしば、様々な微調整パラメータ化とサンプリング戦略の改善を通じてこの問題に対処する。
本稿では,テキストアライメント,計算制約,忠実度を判定し,戦略選択を導くためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-09T13:22:32Z) - On the Guidance of Flow Matching [5.495430412700785]
フローマッチングは、様々な生成タスクにおける最先端のパフォーマンスを示している。
フローマッチングのための一般的なガイダンスの最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-04T09:27:57Z) - Deep Reinforcement Learning for Online Optimal Execution Strategies [49.1574468325115]
本稿では,動的な金融市場における非マルコフ的最適実行戦略の学習に挑戦する。
我々は,Deep Deterministic Policy Gradient(DDPG)に基づく新しいアクター批判アルゴリズムを提案する。
提案アルゴリズムは最適実行戦略の近似に成功していることを示す。
論文 参考訳(メタデータ) (2024-10-17T12:38:08Z) - Landscape-Aware Growing: The Power of a Little LAG [49.897766925371485]
成長戦略のプールから最適な成長戦略をどのように選択するかという課題について検討する。
ランドスケープ・アウェア・グロース(LAG)と呼ぶ早期学習力学に基づく代替視点を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:38:57Z) - Understanding and Improving Training-free Loss-based Diffusion Guidance [46.803127794547756]
トレーニングフリーガイダンスの理解を深め、その制限を克服します。
これらの欠点を解明するために, 学習自由指導は, 対向勾配の影響を受けやすいことを理論的に証明した。
次に,その限界を克服するために,理論的理論的根拠と実証的証拠を伴って,一連の手法を導入する。
論文 参考訳(メタデータ) (2024-03-19T03:27:01Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Learning How to Propagate Messages in Graph Neural Networks [55.2083896686782]
本稿では,グラフニューラルネットワーク(GNN)におけるメッセージ伝搬戦略の学習問題について検討する。
本稿では,GNNパラメータの最大類似度推定を支援するために,最適伝搬ステップを潜時変数として導入する。
提案フレームワークは,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-10-01T15:09:59Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - Thompson sampling for improved exploration in GFlowNets [75.89693358516944]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、合成対象物上の分布からのサンプリングを、学習可能なアクションポリシーを用いたシーケンシャルな意思決定問題として扱う、アモータイズされた変分推論アルゴリズムである。
2つの領域において、TS-GFNは、過去の研究で使われたオフ・ポリティクス・サーベイ・ストラテジーよりも、探索を改善し、目標分布への収束を早くすることを示す。
論文 参考訳(メタデータ) (2023-06-30T14:19:44Z) - Discovering Evolution Strategies via Meta-Black-Box Optimization [23.956974467496345]
メタラーニングによる進化戦略の効果的な更新ルールの発見を提案する。
本手法では,自己注意型アーキテクチャによってパラメータ化された探索戦略を用いる。
進化戦略をスクラッチから自己参照的に訓練することは可能であり、学習された更新ルールは外部メタラーニングループを駆動するために使用される。
論文 参考訳(メタデータ) (2022-11-21T08:48:46Z) - Multi-Agent Reinforcement Learning with Graph Convolutional Neural
Networks for optimal Bidding Strategies of Generation Units in Electricity
Markets [1.370633147306388]
本稿では,深部強化学習(DRL)とグラフ畳み込みニューラルネットワーク(GCN)に基づく分散学習アルゴリズムを提案する。
ノード間の状態と接続はGCNの入力であり、エージェントはシステムの構造を認識することができる。
IEEE 30-busシステムにおける提案アルゴリズムを,異なるシナリオで評価する。
論文 参考訳(メタデータ) (2022-08-11T09:29:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。