論文の概要: Coarse-Guided Visual Generation via Weighted h-Transform Sampling
- arxiv url: http://arxiv.org/abs/2603.12057v1
- Date: Thu, 12 Mar 2026 15:26:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.181882
- Title: Coarse-Guided Visual Generation via Weighted h-Transform Sampling
- Title(参考訳): 重み付きh-transform サンプリングによる粗ガイド型ビジュアルジェネレーション
- Authors: Yanghao Wang, Ziqi Jiang, Zhen Wang, Long Chen,
- Abstract要約: 粗い誘導による視覚生成は、様々な現実世界のアプリケーションに不可欠である。
近年のトレーニングフリーな研究は、事前学習した拡散モデルを活用し、サンプリングプロセス中にガイダンスを取り入れることを提案する。
所望の条件下でプロセス(サンプリングプロセスなど)を制約できるhtransformを用いて,新しいガイド付き手法を提案する。
- 参考スコア(独自算出の注目度): 12.670888779100972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coarse-guided visual generation, which synthesizes fine visual samples from degraded or low-fidelity coarse references, is essential for various real-world applications. While training-based approaches are effective, they are inherently limited by high training costs and restricted generalization due to paired data collection. Accordingly, recent training-free works propose to leverage pretrained diffusion models and incorporate guidance during the sampling process. However, these training-free methods either require knowing the forward (fine-to-coarse) transformation operator, e.g., bicubic downsampling, or are difficult to balance between guidance and synthetic quality. To address these challenges, we propose a novel guided method by using the h-transform, a tool that can constrain stochastic processes (e.g., sampling process) under desired conditions. Specifically, we modify the transition probability at each sampling timestep by adding to the original differential equation with a drift function, which approximately steers the generation toward the ideal fine sample. To address unavoidable approximation errors, we introduce a noise-level-aware schedule that gradually de-weights the term as the error increases, ensuring both guidance adherence and high-quality synthesis. Extensive experiments across diverse image and video generation tasks demonstrate the effectiveness and generalization of our method.
- Abstract(参考訳): 劣化または低忠実な粗い参照から微細な視覚サンプルを合成する粗い誘導型視覚生成は、様々な現実世界の応用に不可欠である。
トレーニングベースのアプローチは効果的であるが、本質的には、高いトレーニングコストとペアデータ収集による一般化の制限によって制限されている。
そのため,近年のトレーニングフリーな研究では,事前学習した拡散モデルを活用し,サンプリングプロセス中にガイダンスを取り入れることが提案されている。
しかしながら、これらのトレーニング不要な手法は、例えば、バイコビック・ダウンサンプリング(英語版)のような前方(微細で粗い)変換演算子を知ることを必要とするか、あるいはガイダンスと合成品質のバランスをとるのが難しい。
これらの課題に対処するために,所望の条件下で確率過程(例えばサンプリング過程)を制約できるh-transformを用いた新しいガイド付き手法を提案する。
具体的には,従来の微分方程式にドリフト関数を付加することにより,各サンプリング時間における遷移確率を変化させる。
回避不能な近似誤差に対処するために、ノイズレベル対応のスケジュールを導入し、誤差の増加とともに徐々に項の重み付けを減らし、ガイダンスの定着と高品質な合成を確実にする。
多様な画像および映像生成タスクにわたる広範囲な実験により,本手法の有効性と一般化が示された。
関連論文リスト
- TFTF: Training-Free Targeted Flow for Conditional Sampling [1.4151684142137693]
重要度サンプリングに基づくフローマッチングモデルのための訓練不要条件付きサンプリング手法を提案する。
重要サンプリングのネーブ適用は高次元環境における重み付けに苦しむため, 連続モンテカルロにおける再サンプリング手法を改良し, 取り入れる。
私たちのフレームワークは、理論上の正確性を確保しながら、追加のトレーニングを必要としません。
論文 参考訳(メタデータ) (2026-02-13T13:41:35Z) - Learning To Sample From Diffusion Models Via Inverse Reinforcement Learning [43.678382510171986]
拡散モデルは、ニューラルネットワークによってガイドされる反復的復調プロセスを通じてサンプルを生成する。
本稿では,サンプリング戦略の学習のための逆強化学習フレームワークを提案する。
提案手法は,事前学習した拡散モデルにより生成された試料の品質を向上させることができることを示す。
論文 参考訳(メタデータ) (2026-02-09T14:10:44Z) - Adaptive Destruction Processes for Diffusion Samplers [12.446080077998834]
本稿では,拡散サンプリング装置におけるトレーニング可能な破壊プロセスの課題とメリットについて考察する。
ステップ数に制限がある場合、生成過程と破壊過程の両方を訓練することで、より高速な収束とサンプリング品質の向上が期待できる。
論文 参考訳(メタデータ) (2025-06-02T11:07:27Z) - Quantizing Diffusion Models from a Sampling-Aware Perspective [43.95032520555463]
本稿では,混合次軌道アライメント手法を考案したサンプリング対応量子化手法を提案する。
複数のデータセットにまたがるスパースステップ高速サンプリング実験により,本手法は高速サンプリング器の高速収束特性を保っていることが示された。
論文 参考訳(メタデータ) (2025-05-04T20:50:44Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。