論文の概要: What happens to diffusion model likelihood when your model is conditional?
- arxiv url: http://arxiv.org/abs/2409.06364v1
- Date: Tue, 10 Sep 2024 09:42:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 18:19:52.466333
- Title: What happens to diffusion model likelihood when your model is conditional?
- Title(参考訳): モデルが条件付きである場合、拡散モデルに何が起こるか?
- Authors: Mattias Cross, Anton Ragni,
- Abstract要約: 拡散モデル(DM)は、ランダムサンプルを反復的に識別して高品質なデータを生成する。
DMは非条件DMのランク付けやドメイン外の分類に使われてきた。
条件付きタスクにDMを適用すると、不整合が明らかになり、DMの特性が不明であるという主張が強まる。
- 参考スコア(独自算出の注目度): 1.643629306994231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Models (DMs) iteratively denoise random samples to produce high-quality data. The iterative sampling process is derived from Stochastic Differential Equations (SDEs), allowing a speed-quality trade-off chosen at inference. Another advantage of sampling with differential equations is exact likelihood computation. These likelihoods have been used to rank unconditional DMs and for out-of-domain classification. Despite the many existing and possible uses of DM likelihoods, the distinct properties captured are unknown, especially in conditional contexts such as Text-To-Image (TTI) or Text-To-Speech synthesis (TTS). Surprisingly, we find that TTS DM likelihoods are agnostic to the text input. TTI likelihood is more expressive but cannot discern confounding prompts. Our results show that applying DMs to conditional tasks reveals inconsistencies and strengthens claims that the properties of DM likelihood are unknown. This impact sheds light on the previously unknown nature of DM likelihoods. Although conditional DMs maximise likelihood, the likelihood in question is not as sensitive to the conditioning input as one expects. This investigation provides a new point-of-view on diffusion likelihoods.
- Abstract(参考訳): 拡散モデル(DM)は、ランダムサンプルを反復的に識別して高品質なデータを生成する。
反復サンプリングプロセスは確率微分方程式(SDE)から導出され、推論で選択された速度品質のトレードオフを可能にする。
微分方程式を用いたサンプリングのもう1つの利点は、正確な近似計算である。
これらの可能性は、非条件DMのランク付けや領域外分類に使われてきた。
DMの可能性は存在するが、特にText-To-Image (TTI) や Text-To-Speech synthesis (TTS) のような条件付き文脈では、その特徴は分かっていない。
意外なことに、TTS DMの可能性はテキスト入力に依存しない。
TTIはより表現力が高いが、欠点のあるプロンプトを識別することはできない。
その結果,条件付きタスクにDMを適用すると不整合が明らかになり,DMの特性が不明である可能性が示唆された。
この影響は、これまで知られていなかったDMの可能性に光を当てる。
条件DMは確率を最大化するが、問題の確率は期待する条件入力に敏感ではない。
この研究は拡散可能性の新しい視点を提供する。
関連論文リスト
- Don't drop your samples! Coherence-aware training benefits Conditional diffusion [17.349357521783062]
Coherence-Aware Diffusion (CAD) は条件情報のコヒーレンスを拡散モデルに統合する新しい手法である。
CADは理論的に健全であり,様々な条件生成タスクに対して実験的に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-30T17:57:26Z) - On the Asymptotic Mean Square Error Optimality of Diffusion Models [10.72484143420088]
生成前駆体としての拡散モデル(DM)は近年,タスクを認知する大きな可能性を示している。
本稿では, MSE-Optimal Conditional mean (CME) の構造から着想を得た新しい認知戦略を提案する。
結果のDMベースのデノイザは、トレーニング済みのDMを用いて便利に使用することができ、特に逆拡散ステップをトラッピングすることで高速である。
論文 参考訳(メタデータ) (2024-03-05T13:25:44Z) - ProTIP: Probabilistic Robustness Verification on Text-to-Image Diffusion Models against Stochastic Perturbation [18.103478658038846]
テキスト・ツー・イメージ(T2I)拡散モデル(DM)は、単純なテキスト記述に基づいて高品質な画像を生成する際、印象的な能力を示した。
多くのディープラーニング(DL)モデルに共通するように、DMは堅牢性に欠ける。
本稿では,T2I DMのロバスト性に関する確率論的概念を導入し,統計的保証で評価するための効率的なフレームワークであるProTIPを確立する。
論文 参考訳(メタデータ) (2024-02-23T16:48:56Z) - User-defined Event Sampling and Uncertainty Quantification in Diffusion
Models for Physical Dynamical Systems [49.75149094527068]
拡散モデルを用いて予測を行い,カオス力学系に対する不確かさの定量化が可能であることを示す。
本研究では,雑音レベルが低下するにつれて真の分布に収束する条件付きスコア関数の確率的近似法を開発する。
推論時に非線形ユーザ定義イベントを条件付きでサンプリングすることができ、分布の尾部からサンプリングした場合でもデータ統計と一致させることができる。
論文 参考訳(メタデータ) (2023-06-13T03:42:03Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Detecting Adversarial Data by Probing Multiple Perturbations Using
Expected Perturbation Score [62.54911162109439]
逆方向検出は、自然分布と逆方向分布の差に基づいて、与えられたサンプルが逆方向であるかどうかを判定することを目的としている。
本研究では,様々な摂動後の標本の予測スコアであるEPS(pre expected perturbation score)を提案する。
EPSに基づく最大平均誤差(MMD)を,試験試料と自然試料との差を測定する指標として開発する。
論文 参考訳(メタデータ) (2023-05-25T13:14:58Z) - Distinguishing Cause from Effect on Categorical Data: The Uniform
Channel Model [0.0]
一対の確率変数の観測による効果による原因の識別は因果発見における中核的な問題である。
分類変数を用いた原因影響問題に対処するための基準を提案する。
我々は、条件付き確率質量関数が一様チャネル(UC)に最も近い因果方向として選択する。
論文 参考訳(メタデータ) (2023-03-14T13:54:11Z) - CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions [2.543865489517869]
我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
論文 参考訳(メタデータ) (2023-01-19T08:23:34Z) - f-DM: A Multi-stage Diffusion Model via Progressive Signal
Transformation [56.04628143914542]
拡散モデル(DM)は、最近、様々な領域で生成モデリングを行うためのSoTAツールとして登場した。
本稿では、プログレッシブ信号変換が可能なDMの一般化されたファミリであるf-DMを提案する。
我々は、ダウンサンプリング、ぼやけ、学習された変換を含む様々な機能を持つ画像生成タスクにf-DMを適用した。
論文 参考訳(メタデータ) (2022-10-10T18:49:25Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。