論文の概要: Inference-Time Alignment of Diffusion Models with Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2506.00299v1
- Date: Fri, 30 May 2025 23:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.685888
- Title: Inference-Time Alignment of Diffusion Models with Evolutionary Algorithms
- Title(参考訳): 進化的アルゴリズムを用いた拡散モデルの推測時間アライメント
- Authors: Purvish Jajal, Nick John Eliopoulos, Benjamin Shiue-Hal Chou, George K. Thiruvathukal, James C. Davis, Yung-Hsiang Lu,
- Abstract要約: 進化的アルゴリズムに基づく推論時間アライメントフレームワークを提案する。
拡散モデルをブラックボックスとして扱い、それらの潜在空間を探索してアライメント目的を最大化する。
本手法は, 微分不可能なアライメント目的と微分不可能なアライメント目的の両方に対して, 効率的な推論時間アライメントを実現する。
- 参考スコア(独自算出の注目度): 3.1560513857564834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are state-of-the-art generative models in various domains, yet their samples often fail to satisfy downstream objectives such as safety constraints or domain-specific validity. Existing techniques for alignment require gradients, internal model access, or large computational budgets. We introduce an inference-time alignment framework based on evolutionary algorithms. We treat diffusion models as black-boxes and search their latent space to maximize alignment objectives. Our method enables efficient inference-time alignment for both differentiable and non-differentiable alignment objectives across a range of diffusion models. On the DrawBench and Open Image Preferences benchmark, our EA methods outperform state-of-the-art gradient-based and gradient-free inference-time methods. In terms of memory consumption, we require 55% to 76% lower GPU memory than gradient-based methods. In terms of running-time, we are 72% to 80% faster than gradient-based methods. We achieve higher alignment scores over 50 optimization steps on Open Image Preferences than gradient-based and gradient-free methods.
- Abstract(参考訳): 拡散モデルは、様々な領域における最先端の生成モデルであるが、それらのサンプルは、安全制約やドメイン固有の妥当性といった下流の目的を満たすことができないことが多い。
アライメントのための既存の技術は、勾配、内部モデルアクセス、あるいは大きな計算予算を必要とする。
進化的アルゴリズムに基づく推論時間アライメントフレームワークを提案する。
拡散モデルをブラックボックスとして扱い、それらの潜在空間を探索してアライメント目的を最大化する。
本手法は, 様々な拡散モデルにおいて, 微分可能かつ非微分不可能なアライメント目的に対して, 効率的な推論時間アライメントを実現する。
DrawBench と Open Image Preferences のベンチマークでは、EA の手法は最先端の勾配ベースおよび勾配のない推論時間法より優れています。
メモリ消費に関しては、勾配ベースの方法よりも55%から76%低いGPUメモリが必要です。
実行時間に関しては、勾配ベースの方法よりも72%から80%高速です。
我々は、勾配に基づく手法や勾配のない手法よりも、Open Image Preferences上で50以上のアライメントスコアを達成する。
関連論文リスト
- Posterior Approximation using Stochastic Gradient Ascent with Adaptive Stepsize [24.464140786923476]
後続近似により、ディリクレプロセスの混合のような非パラメトリックは、分数的なコストでより大きなデータセットにスケールアップできる。
勾配上昇は機械学習の現代的なアプローチであり、ディープニューラルネットワークのトレーニングに広く利用されている。
本研究では,ディリクレプロセス混合物の後部近似のための高速アルゴリズムとして勾配上昇法について検討する。
論文 参考訳(メタデータ) (2024-12-12T05:33:23Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - AdAdaGrad: Adaptive Batch Size Schemes for Adaptive Gradient Methods [17.043034606088234]
本稿では,AdAdaGradのスカラー変種AdAdaGradNormについて紹介する。
また,画像分類実験を行い,提案手法のメリットを強調した。
論文 参考訳(メタデータ) (2024-02-17T07:49:50Z) - AutoDiffusion: Training-Free Optimization of Time Steps and
Architectures for Automated Diffusion Model Acceleration [57.846038404893626]
本稿では,拡散モデルに対する効率的な画像生成を実現するために,最適な時間ステップシーケンスと圧縮モデルアーキテクチャを統一されたフレームワークで探索することを提案する。
実験結果から,ImageNet 64$times$64の17.86 FIDスコアとDDIMの138.66の4ステップのFIDスコアを用いると,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-19T08:57:24Z) - Randomized Automatic Differentiation [22.95414996614006]
我々は、ランダム化自動微分(RAD)のための一般的なフレームワークとアプローチを開発する。
RADは、分散の見返りにメモリを減らし、バイアスのない見積もりを計算できる。
本稿では,フィードフォワードネットワークのバッチサイズを小さくし,繰り返しネットワークの場合と同様の回数でRADが収束することを示す。
論文 参考訳(メタデータ) (2020-07-20T19:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。