論文の概要: Inference-Time Alignment of Diffusion Models with Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2506.00299v1
- Date: Fri, 30 May 2025 23:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.685888
- Title: Inference-Time Alignment of Diffusion Models with Evolutionary Algorithms
- Title(参考訳): 進化的アルゴリズムを用いた拡散モデルの推測時間アライメント
- Authors: Purvish Jajal, Nick John Eliopoulos, Benjamin Shiue-Hal Chou, George K. Thiruvathukal, James C. Davis, Yung-Hsiang Lu,
- Abstract要約: 進化的アルゴリズムに基づく推論時間アライメントフレームワークを提案する。
拡散モデルをブラックボックスとして扱い、それらの潜在空間を探索してアライメント目的を最大化する。
本手法は, 微分不可能なアライメント目的と微分不可能なアライメント目的の両方に対して, 効率的な推論時間アライメントを実現する。
- 参考スコア(独自算出の注目度): 3.1560513857564834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are state-of-the-art generative models in various domains, yet their samples often fail to satisfy downstream objectives such as safety constraints or domain-specific validity. Existing techniques for alignment require gradients, internal model access, or large computational budgets. We introduce an inference-time alignment framework based on evolutionary algorithms. We treat diffusion models as black-boxes and search their latent space to maximize alignment objectives. Our method enables efficient inference-time alignment for both differentiable and non-differentiable alignment objectives across a range of diffusion models. On the DrawBench and Open Image Preferences benchmark, our EA methods outperform state-of-the-art gradient-based and gradient-free inference-time methods. In terms of memory consumption, we require 55% to 76% lower GPU memory than gradient-based methods. In terms of running-time, we are 72% to 80% faster than gradient-based methods. We achieve higher alignment scores over 50 optimization steps on Open Image Preferences than gradient-based and gradient-free methods.
- Abstract(参考訳): 拡散モデルは、様々な領域における最先端の生成モデルであるが、それらのサンプルは、安全制約やドメイン固有の妥当性といった下流の目的を満たすことができないことが多い。
アライメントのための既存の技術は、勾配、内部モデルアクセス、あるいは大きな計算予算を必要とする。
進化的アルゴリズムに基づく推論時間アライメントフレームワークを提案する。
拡散モデルをブラックボックスとして扱い、それらの潜在空間を探索してアライメント目的を最大化する。
本手法は, 様々な拡散モデルにおいて, 微分可能かつ非微分不可能なアライメント目的に対して, 効率的な推論時間アライメントを実現する。
DrawBench と Open Image Preferences のベンチマークでは、EA の手法は最先端の勾配ベースおよび勾配のない推論時間法より優れています。
メモリ消費に関しては、勾配ベースの方法よりも55%から76%低いGPUメモリが必要です。
実行時間に関しては、勾配ベースの方法よりも72%から80%高速です。
我々は、勾配に基づく手法や勾配のない手法よりも、Open Image Preferences上で50以上のアライメントスコアを達成する。
関連論文リスト
- On the Benefits of Accelerated Optimization in Robust and Private Estimation [2.209921757303168]
本研究では,Frank-Wolfe法と投射降下法に基づく加速勾配法の利点について検討する。
Frank-Wolfe法では,制約集合上の$ell$-normの勾配に調整された反復学習率と一様下界をベースとした手法を提案する。
射影降下を加速するために、ネステロフの運動量に基づく一般的な変種を用いる。
論文 参考訳(メタデータ) (2025-06-03T16:26:30Z) - Posterior Approximation using Stochastic Gradient Ascent with Adaptive Stepsize [24.464140786923476]
後続近似により、ディリクレプロセスの混合のような非パラメトリックは、分数的なコストでより大きなデータセットにスケールアップできる。
勾配上昇は機械学習の現代的なアプローチであり、ディープニューラルネットワークのトレーニングに広く利用されている。
本研究では,ディリクレプロセス混合物の後部近似のための高速アルゴリズムとして勾配上昇法について検討する。
論文 参考訳(メタデータ) (2024-12-12T05:33:23Z) - Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
任意の制約下で高速かつ高品質な生成を可能にするアルゴリズムを提案する。
推測中、ノイズの多い画像上で計算された勾配更新と、最終的なクリーンな画像で計算されたアップデートとを交換できる。
我々のアプローチは、最先端のトレーニングフリー推論アプローチに匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - AdAdaGrad: Adaptive Batch Size Schemes for Adaptive Gradient Methods [17.043034606088234]
本稿では,AdAdaGradのスカラー変種AdAdaGradNormについて紹介する。
また,画像分類実験を行い,提案手法のメリットを強調した。
論文 参考訳(メタデータ) (2024-02-17T07:49:50Z) - AdaDiff: Adaptive Step Selection for Fast Diffusion Models [82.78899138400435]
我々は、インスタンス固有のステップ利用ポリシーを学ぶために設計された軽量フレームワークであるAdaDiffを紹介します。
AdaDiffはポリシーメソッドを使用して最適化され、慎重に設計された報酬関数を最大化する。
我々は3つの画像生成と2つのビデオ生成ベンチマークの実験を行い、本手法がベースラインと同じような視覚的品質を実現することを示す。
論文 参考訳(メタデータ) (2023-11-24T11:20:38Z) - AutoDiffusion: Training-Free Optimization of Time Steps and
Architectures for Automated Diffusion Model Acceleration [57.846038404893626]
本稿では,拡散モデルに対する効率的な画像生成を実現するために,最適な時間ステップシーケンスと圧縮モデルアーキテクチャを統一されたフレームワークで探索することを提案する。
実験結果から,ImageNet 64$times$64の17.86 FIDスコアとDDIMの138.66の4ステップのFIDスコアを用いると,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-19T08:57:24Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Adapting Stepsizes by Momentumized Gradients Improves Optimization and
Generalization [89.66571637204012]
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
論文 参考訳(メタデータ) (2021-06-22T03:13:23Z) - Quantizing data for distributed learning [24.46948464551684]
通信制約がパフォーマンスのボトルネックを生じさせるネットワーク上のデータを活用することで、モデルをトレーニングする機械学習アプリケーションを検討する。
最近の多くのアプローチでは、更新の圧縮によってこのボトルネックを克服することを提案しているが、モデルが大きくなり、データセットのサイズも大きくなる。
本稿では,グラデーション更新よりもデータを定量化し,学習アプリケーションを支援することを提案する。
論文 参考訳(メタデータ) (2020-12-14T19:54:41Z) - Randomized Automatic Differentiation [22.95414996614006]
我々は、ランダム化自動微分(RAD)のための一般的なフレームワークとアプローチを開発する。
RADは、分散の見返りにメモリを減らし、バイアスのない見積もりを計算できる。
本稿では,フィードフォワードネットワークのバッチサイズを小さくし,繰り返しネットワークの場合と同様の回数でRADが収束することを示す。
論文 参考訳(メタデータ) (2020-07-20T19:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。