論文の概要: U-Turn Diffusion
- arxiv url: http://arxiv.org/abs/2308.07421v2
- Date: Wed, 22 May 2024 20:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-26 21:02:52.390483
- Title: U-Turn Diffusion
- Title(参考訳): U-Turn拡散
- Authors: Hamidreza Behjoo, Michael Chertkov,
- Abstract要約: フォワードノイズ注入プロセスとリバースノイズ除去プロセスからなるAIの拡散モデルについて検討する。
我々の観察から,最も重要な情報は,主に前処理の初期段階に保存されていることが示唆された。
本稿では,前処理と後続の逆ダイナミクスの両方の期間を短縮し,従来のアプローチを変更するUターン拡散モデルを提案する。
- 参考スコア(独自算出の注目度): 0.4527270266697462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore diffusion models of AI, which consist of a forward noise-injecting process and a reverse de-noising process, to understand how they encode information about the Ground Truth (GT) samples in the score-function. Our observations indicate that the most essential information is stored primarily during the early stages of the forward process. Consequently, we propose the U-turn diffusion model, which modifies the traditional approach by shortening the duration of both the forward process and the subsequent reverse dynamics, starting from the final configuration of the forward process. To determine the optimal moment for the U-turn, ensuring that synthetic samples generated at the end of the reverse process are independently and identically distributed (i.i.d.) according to the probability distribution implicitly represented by the GT samples, we utilize various analytical tools, including auto-correlation analysis and the Kolmogorov-Smirnov Gaussianity test. Our experiments with the ImageNet demonstrate that the U-turn diffusion model achieves state-of-the-art Fr\'echet Inception Distance scores with fewer Neural Function Evaluations. Notably, we achieve a 1.35-fold speed-up in inference without the need for retraining.
- Abstract(参考訳): 本稿では,前向きノイズ注入法と逆雑音除去法を組み合わせたAIの拡散モデルについて検討し,スコア関数におけるGTサンプルに関する情報のエンコード方法について考察する。
我々の観察から,最も重要な情報は,主に前処理の初期段階に保存されていることが示唆された。
そこで本研究では,前処理の最終構成から始まり,前処理と後続の逆ダイナミクスの期間を短縮し,従来のアプローチを変更するUターン拡散モデルを提案する。
逆過程の終端で生成した合成試料がGTサンプルに暗黙的に表される確率分布に応じて独立かつ同一に分布することを保証するために,自動相関解析やコルモゴロフ・スミルノフ・ガウシアン性試験などの解析ツールを利用する。
ImageNetを用いた実験により、Uターン拡散モデルにより、より少ないニューラルファンクション評価で最先端のFr'echet Inception Distanceスコアが得られることが示された。
特に、再トレーニングを必要とせず、推論の1.35倍の高速化を実現している。
関連論文リスト
- Outsourced diffusion sampling: Efficient posterior inference in latent spaces of generative models [65.71506381302815]
本稿では、$p(mathbfxmidmathbfy) propto p_theta(mathbfx)$ という形式の後続分布からサンプリングするコストを償却する。
多くのモデルと関心の制約に対して、ノイズ空間の後方はデータ空間の後方よりも滑らかであり、そのような償却推論に対してより快適である。
論文 参考訳(メタデータ) (2025-02-10T19:49:54Z) - IT$^3$: Idempotent Test-Time Training [95.78053599609044]
本稿では,分散シフトの課題に対処する新しいアプローチであるIdempotent Test-Time Training (IT$3$)を紹介する。
IT$3$は、イデオロジェンスの普遍性に基づいている。
画像分類の劣化など,様々なタスクにまたがるアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2024-10-05T15:39:51Z) - A Sharp Convergence Theory for The Probability Flow ODEs of Diffusion Models [45.60426164657739]
拡散型サンプリング器の非漸近収束理論を開発する。
我々は、$d/varepsilon$がターゲット分布を$varepsilon$トータル偏差距離に近似するのに十分であることを証明した。
我々の結果は、$ell$のスコア推定誤差がデータ生成プロセスの品質にどのように影響するかも特徴付ける。
論文 参考訳(メタデータ) (2024-08-05T09:02:24Z) - Consistency Model is an Effective Posterior Sample Approximation for Diffusion Inverse Solvers [28.678613691787096]
過去の近似は後続の手段に依存しており、画像分布の支持には当てはまらない可能性がある。
本稿では,画像分布支援において有効なサンプルを生成することを保証する,後部近似のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T02:23:47Z) - Model-adapted Fourier sampling for generative compressed sensing [7.130302992490975]
測定行列が一意行列からランダムにサブサンプリングされたとき, 生成的圧縮センシングについて検討した。
我々は,textitO(kd| boldsymbolalpha|_22)$の測定精度を改良したモデル適応サンプリング戦略を構築した。
論文 参考訳(メタデータ) (2023-10-08T03:13:16Z) - Simulation-free Schr\"odinger bridges via score and flow matching [89.4231207928885]
シミュレーションフリースコアとフローマッチング([SF]$2$M)を提案する。
本手法は,拡散モデルのトレーニングに使用するスコアマッチング損失と,連続流のトレーニングに使用されるフローマッチング損失の両方を一般化する。
特に、[SF]$2$Mは、高次元の細胞動態を正確にモデル化し、既知の遺伝子制御ネットワークをシミュレートする最初の方法である。
論文 参考訳(メタデータ) (2023-07-07T15:42:35Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。