論文の概要: TAUE: Training-free Noise Transplant and Cultivation Diffusion Model
- arxiv url: http://arxiv.org/abs/2511.02580v1
- Date: Tue, 04 Nov 2025 13:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.060978
- Title: TAUE: Training-free Noise Transplant and Cultivation Diffusion Model
- Title(参考訳): TAUE:無訓練騒音移植と培養拡散モデル
- Authors: Daichi Nagai, Ryugo Morita, Shunsuke Kitada, Hitoshi Iyatomi,
- Abstract要約: 学習不要騒音移植と培養拡散モデル(TAUE)
我々の中核技術であるNTCは、前景および複合生成プロセスから中間潜伏表現を抽出する。
NTCは、前景層、背景層、複合層にまたがる意味的および構造的コヒーレンスを保証する。
- 参考スコア(独自算出の注目度): 2.8740602349966267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable success of text-to-image diffusion models, their output of a single, flattened image remains a critical bottleneck for professional applications requiring layer-wise control. Existing solutions either rely on fine-tuning with large, inaccessible datasets or are training-free yet limited to generating isolated foreground elements, failing to produce a complete and coherent scene. To address this, we introduce the Training-free Noise Transplantation and Cultivation Diffusion Model (TAUE), a novel framework for zero-shot, layer-wise image generation. Our core technique, Noise Transplantation and Cultivation (NTC), extracts intermediate latent representations from both foreground and composite generation processes, transplanting them into the initial noise for subsequent layers. This ensures semantic and structural coherence across foreground, background, and composite layers, enabling consistent, multi-layered outputs without requiring fine-tuning or auxiliary datasets. Extensive experiments show that our training-free method achieves performance comparable to fine-tuned methods, enhancing layer-wise consistency while maintaining high image quality and fidelity. TAUE not only eliminates costly training and dataset requirements but also unlocks novel downstream applications, such as complex compositional editing, paving the way for more accessible and controllable generative workflows.
- Abstract(参考訳): テキストから画像への拡散モデルの顕著な成功にもかかわらず、1枚の平らな画像の出力は、レイヤーワイズ制御を必要とするプロのアプリケーションにとって重要なボトルネックである。
既存のソリューションは、大規模でアクセス不能なデータセットによる微調整に依存するか、トレーニング不要だが、孤立した前景要素の生成に制限されており、完全で一貫性のあるシーンを生成できない。
そこで我々は,ゼロショット・レイヤワイド画像生成のための新しいフレームワークTAUE(Training-free Noise Transplantation and Cultivation Diffusion Model)を提案する。
我々の中核技術であるNTC(Noth Transplantation and Cultivation)は、前景および複合生成プロセスから中間潜伏表現を抽出し、後続の層に対する初期ノイズに移植する。
これにより、フォアグラウンド層、バックグラウンド層、複合層間のセマンティックコヒーレンスと構造的コヒーレンスを確保し、微調整や補助的なデータセットを必要とせずに、一貫性のある多層出力を可能にする。
広汎な実験により,本手法は微細調整法に匹敵する性能を達成し,高画質・忠実性を維持しつつ,層幅の整合性を高めた。
TAUEは、コストのかかるトレーニングとデータセットの要求を取り除くだけでなく、複雑な合成編集、よりアクセスしやすく制御可能な生成ワークフローへの道を開くといった、新しい下流アプリケーションもアンロックする。
関連論文リスト
- RichControl: Structure- and Appearance-Rich Training-Free Spatial Control for Text-to-Image Generation [10.956556608715035]
テキスト・ツー・イメージ(T2I)拡散モデルでは,テキスト・プロンプトから高品質な画像を生成することに成功した。
本稿では, 条件特徴のサンプリングスケジュールをデノナイジングプロセスから切り離すフレキシブルなトレーニングフリーフレームワークを提案する。
再調整スケジュールを導入することでサンプリングプロセスをさらに強化し、外観に富んだプロンプト戦略で視覚的品質を向上させる。
論文 参考訳(メタデータ) (2025-07-03T16:56:15Z) - Unpaired Deblurring via Decoupled Diffusion Model [55.21345354747609]
UID-Diffは,未知領域における劣化性能の向上を目的とした生成拡散モデルである。
構造的特徴とぼかしパターン抽出器を別々に用いて, 抽出した特徴は, 合成データに対する教師付きデブロアリングタスクと教師なしのぼかし転送タスクに使用される。
実世界のデータセットの実験では、UID-Diffが既存の最先端の手法よりも、ぼやけた除去と構造保存に優れていることが示されている。
論文 参考訳(メタデータ) (2025-02-03T17:00:40Z) - LayeringDiff: Layered Image Synthesis via Generation, then Disassembly with Generative Knowledge [14.481577976493236]
LayeringDiffは、階層化されたイメージを合成するための新しいパイプラインである。
合成イメージからレイヤを抽出することで、スクラッチから生成するのではなく、大規模なトレーニングの必要性を回避できる。
実効的な層分解のために,前景層と背景層を推定する前に,大規模事前学習型生成法を適用する。
論文 参考訳(メタデータ) (2025-01-02T11:18:25Z) - Stable Flow: Vital Layers for Training-Free Image Editing [74.52248787189302]
拡散モデルはコンテンツ合成と編集の分野に革命をもたらした。
最近のモデルでは、従来のUNetアーキテクチャをDiffusion Transformer (DiT)に置き換えている。
画像形成に欠かせないDiT内の「硝子層」を自動同定する手法を提案する。
次に、実画像編集を可能にするために、フローモデルのための改良された画像反転手法を提案する。
論文 参考訳(メタデータ) (2024-11-21T18:59:51Z) - Adapting Diffusion Models for Improved Prompt Compliance and Controllable Image Synthesis [43.481539150288434]
この作品は新しい家族を紹介します。
因子グラフ拡散モデル(FG-DM)
FG-DMは結合分布をモデル化する。
イメージやコンディショニング変数、例えばセマンティック、スケッチなどです。
因子グラフ分解による 奥行きや正常な地図です
論文 参考訳(メタデータ) (2024-10-29T00:54:00Z) - Exposure Bracketing Is All You Need For A High-Quality Image [50.822601495422916]
マルチ露光画像は、デノイング、デブロアリング、高ダイナミックレンジイメージング、超解像において相補的である。
本研究では,これらの課題を組み合わせ,高品質な画像を得るために露光ブラケット写真を活用することを提案する。
特に時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - FreePIH: Training-Free Painterly Image Harmonization with Diffusion
Model [19.170302996189335]
我々のFreePIH法は,フォアグラウンド画像スタイル転送のためのプラグインモジュールとしてデノナイズプロセスを利用する。
我々は,潜伏空間における前景オブジェクトの内容と安定性の整合性を強制するために,マルチスケール機能を活用している。
我々の手法は、代表的基準を大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2023-11-25T04:23:49Z) - CoDi: Conditional Diffusion Distillation for Higher-Fidelity and Faster
Image Generation [49.3016007471979]
大規模な生成拡散モデルは、テキスト・ツー・イメージ生成に革命をもたらし、条件付き生成タスクに大きな可能性を秘めている。
しかし、彼らの普及は高い計算コストによって妨げられ、リアルタイムの応用が制限される。
本稿では,事前学習した潜伏拡散モデルに付加的な画像条件入力を適応させるCoDiという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T17:59:18Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。