論文の概要: What happens to diffusion model likelihood when your model is conditional?
- arxiv url: http://arxiv.org/abs/2409.06364v2
- Date: Thu, 26 Sep 2024 12:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 22:16:23.231183
- Title: What happens to diffusion model likelihood when your model is conditional?
- Title(参考訳): モデルが条件付きである場合、拡散モデルに何が起こるか?
- Authors: Mattias Cross, Anton Ragni,
- Abstract要約: 拡散モデル(DM)は、ランダムサンプルを反復的に識別して高品質なデータを生成する。
DMは非条件DMのランク付けやドメイン外の分類に使われてきた。
条件付きタスクにDMを適用すると、不整合が明らかになり、DMの特性が不明であるという主張が強まる。
- 参考スコア(独自算出の注目度): 1.643629306994231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Models (DMs) iteratively denoise random samples to produce high-quality data. The iterative sampling process is derived from Stochastic Differential Equations (SDEs), allowing a speed-quality trade-off chosen at inference. Another advantage of sampling with differential equations is exact likelihood computation. These likelihoods have been used to rank unconditional DMs and for out-of-domain classification. Despite the many existing and possible uses of DM likelihoods, the distinct properties captured are unknown, especially in conditional contexts such as Text-To-Image (TTI) or Text-To-Speech synthesis (TTS). Surprisingly, we find that TTS DM likelihoods are agnostic to the text input. TTI likelihood is more expressive but cannot discern confounding prompts. Our results show that applying DMs to conditional tasks reveals inconsistencies and strengthens claims that the properties of DM likelihood are unknown. This impact sheds light on the previously unknown nature of DM likelihoods. Although conditional DMs maximise likelihood, the likelihood in question is not as sensitive to the conditioning input as one expects. This investigation provides a new point-of-view on diffusion likelihoods.
- Abstract(参考訳): 拡散モデル(DM)は、ランダムサンプルを反復的に識別して高品質なデータを生成する。
反復サンプリングプロセスは確率微分方程式(SDE)から導出され、推論で選択された速度品質のトレードオフを可能にする。
微分方程式を用いたサンプリングのもう1つの利点は、正確な近似計算である。
これらの可能性は、非条件DMのランク付けや領域外分類に使われてきた。
DMの可能性は存在するが、特にText-To-Image (TTI) や Text-To-Speech synthesis (TTS) のような条件付き文脈では、その特徴は分かっていない。
意外なことに、TTS DMの可能性はテキスト入力に依存しない。
TTIはより表現力が高いが、欠点のあるプロンプトを識別することはできない。
その結果,条件付きタスクにDMを適用すると不整合が明らかになり,DMの特性が不明である可能性が示唆された。
この影響は、これまで知られていなかったDMの可能性に光を当てる。
条件DMは確率を最大化するが、問題の確率は期待する条件入力に敏感ではない。
この研究は拡散可能性の新しい視点を提供する。
関連論文リスト
- Improving image synthesis with diffusion-negative sampling [54.84368884047812]
拡散モデル(DM)を用いた画像生成のための新しい拡散陰性プロンプト(DNP)戦略を提案する。
DNPは、拡散陰性サンプリング(DNS)と呼ばれるDMの分布下においてpに最も適合していない画像のサンプリングを行う新しい手順に基づいている。
DNSの実装は簡単で、トレーニングは不要である。実験と人的評価により、DNPは定量的にも質的にもよく機能することが示された。
論文 参考訳(メタデータ) (2024-11-08T10:58:09Z) - Slight Corruption in Pre-training Data Makes Better Diffusion Models [71.90034201302397]
拡散モデル(DM)は、高品質な画像、オーディオ、ビデオを生成する際、顕著な能力を示している。
DMは大規模なデータセットでの広範な事前トレーニングの恩恵を受ける。
しかしながら、事前トレーニングデータセットは、しばしば、データを正確に記述しないような、破損したペアを含んでいる。
本稿では,DMの事前学習データにそのような汚職が及ぼす影響について,初めて包括的研究を行った。
論文 参考訳(メタデータ) (2024-05-30T21:35:48Z) - Don't drop your samples! Coherence-aware training benefits Conditional diffusion [17.349357521783062]
Coherence-Aware Diffusion (CAD) は条件情報のコヒーレンスを拡散モデルに統合する新しい手法である。
CADは理論的に健全であり,様々な条件生成タスクに対して実験的に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-30T17:57:26Z) - ProTIP: Probabilistic Robustness Verification on Text-to-Image Diffusion Models against Stochastic Perturbation [18.103478658038846]
テキスト・ツー・イメージ(T2I)拡散モデル(DM)は、単純なテキスト記述に基づいて高品質な画像を生成する際、印象的な能力を示した。
多くのディープラーニング(DL)モデルに共通するように、DMは堅牢性に欠ける。
本稿では,T2I DMのロバスト性に関する確率論的概念を導入し,統計的保証で評価するための効率的なフレームワークであるProTIPを確立する。
論文 参考訳(メタデータ) (2024-02-23T16:48:56Z) - Conditional Generative Models are Sufficient to Sample from Any Causal Effect Estimand [9.460857822923842]
観測データからの因果推論は、信頼できる機械学習における多くの応用において重要な役割を果たす。
任意の因果グラフを与えられた任意の介入分布からサンプリングする方法を示す。
またテキストと画像変数を含むMIMIC-CXRデータセットから高次元干渉サンプルを生成する。
論文 参考訳(メタデータ) (2024-02-12T05:48:31Z) - Risk-Sensitive Diffusion: Robustly Optimizing Diffusion Models with Noisy Samples [58.68233326265417]
非画像データは実際のアプリケーションで広く使われており、ノイズが多い傾向にある。
リスク感受性SDEは、リスクベクトルによってパラメータ化された微分方程式(SDE)の一種である。
我々はガウス雑音分布と非ガウス雑音分布の両方について系統的研究を行う。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Detecting Adversarial Data by Probing Multiple Perturbations Using
Expected Perturbation Score [62.54911162109439]
逆方向検出は、自然分布と逆方向分布の差に基づいて、与えられたサンプルが逆方向であるかどうかを判定することを目的としている。
本研究では,様々な摂動後の標本の予測スコアであるEPS(pre expected perturbation score)を提案する。
EPSに基づく最大平均誤差(MMD)を,試験試料と自然試料との差を測定する指標として開発する。
論文 参考訳(メタデータ) (2023-05-25T13:14:58Z) - Distinguishing Cause from Effect on Categorical Data: The Uniform
Channel Model [0.0]
一対の確率変数の観測による効果による原因の識別は因果発見における中核的な問題である。
分類変数を用いた原因影響問題に対処するための基準を提案する。
我々は、条件付き確率質量関数が一様チャネル(UC)に最も近い因果方向として選択する。
論文 参考訳(メタデータ) (2023-03-14T13:54:11Z) - CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions [2.543865489517869]
我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
論文 参考訳(メタデータ) (2023-01-19T08:23:34Z) - f-DM: A Multi-stage Diffusion Model via Progressive Signal
Transformation [56.04628143914542]
拡散モデル(DM)は、最近、様々な領域で生成モデリングを行うためのSoTAツールとして登場した。
本稿では、プログレッシブ信号変換が可能なDMの一般化されたファミリであるf-DMを提案する。
我々は、ダウンサンプリング、ぼやけ、学習された変換を含む様々な機能を持つ画像生成タスクにf-DMを適用した。
論文 参考訳(メタデータ) (2022-10-10T18:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。