論文の概要: Squeezed Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.14871v1
- Date: Wed, 20 Aug 2025 17:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.540043
- Title: Squeezed Diffusion Models
- Title(参考訳): Squeezed Diffusion Models
- Authors: Jyotirmai Singh, Samar Khanna, James Burgess,
- Abstract要約: 拡散モデルは通常、データの構造を無視した等方的ガウスノイズを注入する。
ハイゼンベルクの不確実性原理に従って量子圧縮状態が不確実性を再分配する方法によって動機づけられたSqueezed Diffusion Models (SDM)を紹介する。
物理学における信号と雑音の比が増大するにつれて、データ依存的なスケーリングノイズは重要なデータ特徴の学習において拡散モデルに役立つと仮定する。
- 参考スコア(独自算出の注目度): 0.4551615447454769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models typically inject isotropic Gaussian noise, disregarding structure in the data. Motivated by the way quantum squeezed states redistribute uncertainty according to the Heisenberg uncertainty principle, we introduce Squeezed Diffusion Models (SDM), which scale noise anisotropically along the principal component of the training distribution. As squeezing enhances the signal-to-noise ratio in physics, we hypothesize that scaling noise in a data-dependent manner can better assist diffusion models in learning important data features. We study two configurations: (i) a Heisenberg diffusion model that compensates the scaling on the principal axis with inverse scaling on orthogonal directions and (ii) a standard SDM variant that scales only the principal axis. Counterintuitively, on CIFAR-10/100 and CelebA-64, mild antisqueezing - i.e. increasing variance on the principal axis - consistently improves FID by up to 15% and shifts the precision-recall frontier toward higher recall. Our results demonstrate that simple, data-aware noise shaping can deliver robust generative gains without architectural changes.
- Abstract(参考訳): 拡散モデルは通常、データの構造を無視した等方的ガウスノイズを注入する。
ハイゼンベルクの不確実性原理に従って量子圧縮状態が不確実性を再分配する方法により、トレーニング分布の主成分に沿って異方性にノイズをスケールするSqueezed Diffusion Models (SDM)を導入する。
物理学における信号と雑音の比が増大するにつれて、データ依存的なスケーリングノイズは重要なデータ特徴の学習において拡散モデルに役立つと仮定する。
私たちは2つの構成を研究します。
一 主軸上のスケーリングを直交方向の逆スケーリングと補償するハイゼンベルク拡散モデル
(ii)主軸のみをスケーリングする標準SDM変種。
対照的に、CIFAR-10/100とCelebA-64では、軽度のアンティークリーズ、すなわち主軸のばらつきの増加は、FIDを最大15%改善し、高精度リコールフロンティアを高いリコールに向けてシフトさせる。
以上の結果から, 単純でデータ認識型ノイズシェーピングは, 構造的変化を伴わずに, 強靭な生成ゲインをもたらすことが示唆された。
関連論文リスト
- Kernel-Smoothed Scores for Denoising Diffusion: A Bias-Variance Study [3.265950484493743]
拡散モデルは暗記しがちである。
スコアの正規化は、トレーニングデータセットのサイズを増やすのと同じ効果がある。
この視点は、拡散をデノナイズする2つの規則化機構を強調する。
論文 参考訳(メタデータ) (2025-05-28T20:22:18Z) - Spatial Reasoning with Denoising Models [49.83744014336816]
本稿では,連続変数の集合に対する推論を行うためのフレームワークを提案する。
初めて、その生成順序をデノナイジングネットワーク自体によって予測できる。
これらの結果から,特定の推論タスクの精度を1%から50%に向上させることができる。
論文 参考訳(メタデータ) (2025-02-28T14:08:30Z) - Edge-preserving noise for diffusion models [4.435514696080208]
既存の等方性モデルに対して一般化した新しいエッジ保存拡散モデルを提案する。
モデルの生成過程はより高速に収束し, 対象の分布とより密に一致していることを示す。
我々のエッジ保存拡散プロセスは、非条件画像生成における最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-10-02T13:29:52Z) - Dynamic Addition of Noise in a Diffusion Model for Anomaly Detection [2.209921757303168]
拡散モデルは、名目データ分布を捕捉し、再構成を通して異常を識別することで、異常検出に有用な応用を見出した。
それらの利点にもかかわらず、彼らは様々なスケールの異常、特に欠落した成分全体のような大きな異常をローカライズするのに苦労している。
本稿では,従来の暗黙的条件付け手法であるメングらを拡張し,拡散モデルの能力を高める新しい枠組みを提案する。
2022年は3つの重要な意味を持つ。
論文 参考訳(メタデータ) (2024-01-09T09:57:38Z) - Adaptive Multi-step Refinement Network for Robust Point Cloud Registration [82.64560249066734]
ポイントクラウド登録は、同じシーンの2つのポイントクラウド間の相対的な厳密な変換を推定する。
本稿では,前ステップからの情報を活用することで,各ステップの登録品質を向上する適応型多段階改良ネットワークを提案する。
本手法は3DMatch/3DLoMatchベンチマークとKITTIベンチマークの両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-05T18:59:41Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。