論文の概要: Test-Time Alignment of Text-to-Image Diffusion Models via Null-Text Embedding Optimisation
- arxiv url: http://arxiv.org/abs/2511.20889v1
- Date: Tue, 25 Nov 2025 22:11:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.880507
- Title: Test-Time Alignment of Text-to-Image Diffusion Models via Null-Text Embedding Optimisation
- Title(参考訳): ヌルテキスト埋め込み最適化によるテキスト・画像拡散モデルのテスト時間アライメント
- Authors: Taehoon Kim, Henry Gouk, Timothy Hospedales,
- Abstract要約: テストタイムアライメントは、推論中に特定の報酬にモデルを適応させることを目的としている。
既存の方法は、目標の報酬関数を過度に最適化するか、あるいは過度に最適化(ハック)する傾向がある。
本研究では,Null-Text Test-Time Alignment (Null-TTA)を提案する。
- 参考スコア(独自算出の注目度): 11.55964098008718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time alignment (TTA) aims to adapt models to specific rewards during inference. However, existing methods tend to either under-optimise or over-optimise (reward hack) the target reward function. We propose Null-Text Test-Time Alignment (Null-TTA), which aligns diffusion models by optimising the unconditional embedding in classifier-free guidance, rather than manipulating latent or noise variables. Due to the structured semantic nature of the text embedding space, this ensures alignment occurs on a semantically coherent manifold and prevents reward hacking (exploiting non-semantic noise patterns to improve the reward). Since the unconditional embedding in classifier-free guidance serves as the anchor for the model's generative distribution, Null-TTA directly steers model's generative distribution towards the target reward rather than just adjusting the samples, even without updating model parameters. Thanks to these desirable properties, we show that Null-TTA achieves state-of-the-art target test-time alignment while maintaining strong cross-reward generalisation. This establishes semantic-space optimisation as an effective and principled novel paradigm for TTA.
- Abstract(参考訳): テストタイムアライメント(TTA)は、推論中に特定の報酬にモデルを適応させることを目的としている。
しかし、既存の手法では、目標の報酬関数を過度に最適化するか、あるいは過度に最適化(ハック)する傾向がある。
本研究では,Null-Text Test-Time Alignment (Null-TTA)を提案する。
テキスト埋め込み空間の構造的意味性のため、これは意味的コヒーレントな多様体上でのアライメントを確実にし、報酬ハック(報酬を改善するために非意味的ノイズパターンを露呈する)を防ぐ。
非条件埋め込みはモデル生成分布のアンカーとして機能するため、Null-TTAはモデルパラメータを更新することなくサンプルを単に調整するのではなく、モデル生成分布を目標報酬に向けて直接操作する。
これらの望ましい性質により、Null-TTAは強い逆一般化を維持しつつ、最先端のテスト時間アライメントを実現する。
これにより意味空間の最適化がTTAの効果的で原則化された新しいパラダイムとして確立される。
関連論文リスト
- Backpropagation-Free Test-Time Adaptation via Probabilistic Gaussian Alignment [16.352863226512984]
テスト時間適応(TTA)は、推論中にラベルのないテストデータを活用することにより、分散シフト下でのゼロショットロバスト性を高める。
ほとんどのメソッドは、スケーラビリティを制限し、リアルタイムデプロイメントを妨げるバックプロパゲーションや反復最適化に依存しています。
本稿では,Advanced Distribution-AwareとBack propagation-free Test-time Adapting法であるADAPTを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:42:49Z) - Negative-Guided Subject Fidelity Optimization for Zero-Shot Subject-Driven Generation [52.18071720309418]
本稿では,ゼロショットな被写体駆動生成のための新しい比較学習フレームワークである主観的忠実度最適化(SFO)を提案する。
SFOは、ペアワイズ比較を通じて、ネガティブよりもポジティブを好むようモデルに導出する。
負の目標に対して、主観的生成に適した合成陰性を自動生成する条件劣化負サンプリング(CDNS)を提案する。
論文 参考訳(メタデータ) (2025-06-04T06:59:25Z) - StarFT: Robust Fine-tuning of Zero-shot Models via Spuriosity Alignment [70.87096576708898]
本稿では,ゼロショットモデルの微調整を行うフレームワークであるStarFTを提案する。
StarFTはウォーターバードグループのシフトシナリオにおいて、それぞれ14.30%、平均精度を3.02%向上させる。
論文 参考訳(メタデータ) (2025-05-19T15:15:35Z) - InfAlign: Inference-aware language model alignment [58.66389179049758]
言語モデルのアライメントは、現代の生成言語モデルのトレーニングにおける重要なステップである。
この列車/テストのミスマッチは、推論時間法の観点から標準のRLHFフレームワークを最適化することを示す。
本稿では,ベースモデルに対するアライメントポリシーの予測時間勝利率を最適化することを目的とした,推論対応アライメント(InfAlign)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-27T18:45:36Z) - Generation-driven Contrastive Self-training for Zero-shot Text Classification with Instruction-following LLM [31.25193238045053]
我々は、より小さな言語モデルの訓練を支援するために、大規模言語モデルの強力な生成力を利用する新しい手法、GenCoを導入する。
本手法では,LLMは2つの重要な方法で,より小さなモデルの自己学習ループにおいて重要な役割を果たす。
予測ラベルに条件付き入力テキストを書き換えることで、高品質なトレーニングペアの開発を支援する。
論文 参考訳(メタデータ) (2023-04-24T07:35:38Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。