論文の概要: HyperAlign: Hypernetwork for Efficient Test-Time Alignment of Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.15968v1
- Date: Thu, 22 Jan 2026 13:49:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.6134
- Title: HyperAlign: Hypernetwork for Efficient Test-Time Alignment of Diffusion Models
- Title(参考訳): HyperAlign: 拡散モデルの効率的なテスト時間アライメントのためのハイパーネットワーク
- Authors: Xin Xie, Jiaxian Guo, Dong Gong,
- Abstract要約: 本稿では,効率的なテスト時間アライメントのためにハイパーネットワークをトレーニングする新しいフレームワークを提案する。
潜在状態を変更する代わりに、HyperAlignは拡散モデルの生成演算子を変調するために、動的に低ランク適応重みを生成する。
セマンティック一貫性と視覚的魅力を高めるために、既存の微調整とテストタイムのスケーリングベースラインを著しく上回る。
- 参考スコア(独自算出の注目度): 23.070399327132737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models achieve state-of-the-art performance but often fail to generate outputs that align with human preferences and intentions, resulting in images with poor aesthetic quality and semantic inconsistencies. Existing alignment methods present a difficult trade-off: fine-tuning approaches suffer from loss of diversity with reward over-optimization, while test-time scaling methods introduce significant computational overhead and tend to under-optimize. To address these limitations, we propose HyperAlign, a novel framework that trains a hypernetwork for efficient and effective test-time alignment. Instead of modifying latent states, HyperAlign dynamically generates low-rank adaptation weights to modulate the diffusion model's generation operators. This allows the denoising trajectory to be adaptively adjusted based on input latents, timesteps and prompts for reward-conditioned alignment. We introduce multiple variants of HyperAlign that differ in how frequently the hypernetwork is applied, balancing between performance and efficiency. Furthermore, we optimize the hypernetwork using a reward score objective regularized with preference data to reduce reward hacking. We evaluate HyperAlign on multiple extended generative paradigms, including Stable Diffusion and FLUX. It significantly outperforms existing fine-tuning and test-time scaling baselines in enhancing semantic consistency and visual appeal.
- Abstract(参考訳): 拡散モデルは最先端のパフォーマンスを達成するが、人間の好みや意図に沿った出力を生成できない場合が多いため、美的品質や意味的な矛盾のある画像が得られる。
ファインチューニングアプローチは、報酬の過度な最適化を伴う多様性の喪失に悩まされる一方、テストタイムスケーリング手法では、計算オーバーヘッドが大幅に増加し、過度に最適化される傾向にある。
これらの制限に対処するために,ハイパーネットワークを効果的かつ効果的なテスト時間アライメントのためにトレーニングする新しいフレームワークであるHyperAlignを提案する。
潜在状態を変更する代わりに、HyperAlignは拡散モデルの生成演算子を変調するために、動的に低ランク適応重みを生成する。
これにより、インプット遅延、タイムステップ、報酬条件付きアライメントのプロンプトに基づいて、デノイング軌跡を適応的に調整することができる。
性能と効率のバランスをとりながら、ハイパーネットワークの適用頻度が異なるHyperAlignの複数のバリエーションを紹介します。
さらに、リコメンデーションデータで正規化された報酬スコアの目的を用いて、ハイパーネットワークを最適化し、報酬ハッキングを減らす。
安定拡散やFLUXを含む複数の拡張生成パラダイム上でHyperAlignを評価する。
セマンティック一貫性と視覚的魅力を高めるために、既存の微調整とテストタイムのスケーリングベースラインを著しく上回る。
関連論文リスト
- Finetuning-Free Personalization of Text to Image Generation via Hypernetworks [15.129799519953139]
被写体画像から直接LoRA適応重量を予測するHypernetworksによる微調整不要なパーソナライゼーションを提案する。
提案手法はパーソナライズ性能を向上し,オープンカテゴリパーソナライズのためのスケーラブルで効果的な方向としてのハイパーネットワークの約束を強調する。
論文 参考訳(メタデータ) (2025-11-05T03:31:33Z) - Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models [57.49136894315871]
テストタイムスケーリングの新しいパラダイムは、推論モデルと生成視覚モデルにおいて驚くべきブレークスルーをもたらした。
本稿では,テスト時間スケーリングの知識をモデルに組み込むことの課題に対する1つの解決策を提案する。
拡散モデルにおいて、初期入力ノイズを変調するノイズハイパーネットワークにより、報酬誘導試験時間雑音の最適化を行う。
論文 参考訳(メタデータ) (2025-08-13T17:33:37Z) - DiffPO: Diffusion-styled Preference Optimization for Efficient Inference-Time Alignment of Large Language Models [50.32663816994459]
拡散型優先度最適化(Diffusion-styled Preference Optimization: モデル)は、LLMを人間と整合させるための効率的でポリシーに依存しないソリューションを提供する。
modelavoidはトークンレベルの生成に関連する時間遅延をモデル化する。
AlpacaEval 2, MT-bench, HH-RLHFの実験により, 種々の環境におけるアライメント性能が良好であることが示された。
論文 参考訳(メタデータ) (2025-03-06T09:21:54Z) - Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。