論文の概要: Squeezed Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.14871v1
- Date: Wed, 20 Aug 2025 17:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.540043
- Title: Squeezed Diffusion Models
- Title(参考訳): Squeezed Diffusion Models
- Authors: Jyotirmai Singh, Samar Khanna, James Burgess,
- Abstract要約: 拡散モデルは通常、データの構造を無視した等方的ガウスノイズを注入する。
ハイゼンベルクの不確実性原理に従って量子圧縮状態が不確実性を再分配する方法によって動機づけられたSqueezed Diffusion Models (SDM)を紹介する。
物理学における信号と雑音の比が増大するにつれて、データ依存的なスケーリングノイズは重要なデータ特徴の学習において拡散モデルに役立つと仮定する。
- 参考スコア(独自算出の注目度): 0.4551615447454769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models typically inject isotropic Gaussian noise, disregarding structure in the data. Motivated by the way quantum squeezed states redistribute uncertainty according to the Heisenberg uncertainty principle, we introduce Squeezed Diffusion Models (SDM), which scale noise anisotropically along the principal component of the training distribution. As squeezing enhances the signal-to-noise ratio in physics, we hypothesize that scaling noise in a data-dependent manner can better assist diffusion models in learning important data features. We study two configurations: (i) a Heisenberg diffusion model that compensates the scaling on the principal axis with inverse scaling on orthogonal directions and (ii) a standard SDM variant that scales only the principal axis. Counterintuitively, on CIFAR-10/100 and CelebA-64, mild antisqueezing - i.e. increasing variance on the principal axis - consistently improves FID by up to 15% and shifts the precision-recall frontier toward higher recall. Our results demonstrate that simple, data-aware noise shaping can deliver robust generative gains without architectural changes.
- Abstract(参考訳): 拡散モデルは通常、データの構造を無視した等方的ガウスノイズを注入する。
ハイゼンベルクの不確実性原理に従って量子圧縮状態が不確実性を再分配する方法により、トレーニング分布の主成分に沿って異方性にノイズをスケールするSqueezed Diffusion Models (SDM)を導入する。
物理学における信号と雑音の比が増大するにつれて、データ依存的なスケーリングノイズは重要なデータ特徴の学習において拡散モデルに役立つと仮定する。
私たちは2つの構成を研究します。
一 主軸上のスケーリングを直交方向の逆スケーリングと補償するハイゼンベルク拡散モデル
(ii)主軸のみをスケーリングする標準SDM変種。
対照的に、CIFAR-10/100とCelebA-64では、軽度のアンティークリーズ、すなわち主軸のばらつきの増加は、FIDを最大15%改善し、高精度リコールフロンティアを高いリコールに向けてシフトさせる。
以上の結果から, 単純でデータ認識型ノイズシェーピングは, 構造的変化を伴わずに, 強靭な生成ゲインをもたらすことが示唆された。
関連論文リスト
- Function-Space Decoupled Diffusion for Forward and Inverse Modeling in Carbon Capture and Storage [65.51149575007149]
本稿では,Fun-DDPSについて述べる。Fun-DDPSは,関数空間拡散モデルと微分可能なニューラル演算子サロゲートを結合した生成フレームワークである。
Fun-DDPSは、ジョイントステートベースラインで観察される高周波アーティファクトから、物理的に一貫した実現をもたらす。
論文 参考訳(メタデータ) (2026-02-12T18:58:12Z) - Breaking the Bottlenecks: Scalable Diffusion Models for 3D Molecular Generation [0.0]
拡散モデルは分子設計のための強力な生成モデルとして登場した。
彼らの使用は、長いサンプリング軌道、逆過程のばらつき、そして力学の認知における構造的認識の制限によって制限されている。
直接分極拡散モデル(英語版)は、逆MCMC更新を決定論的分極ステップに置き換えることでこれらの非効率性を緩和する。
論文 参考訳(メタデータ) (2026-01-13T20:09:44Z) - Diffusion Models are Molecular Dynamics Simulators [0.0]
バッチ次元に逐次バイアスを付与したデノナイズ拡散サンプリング器が,ランゲヴィン力学を過度に破壊するオイラー・丸山積分器であることを証明した。
各逆消音ステップは、その関連するばね剛性を伴って、ノイズスケジュールとその剛性とで協調して設定された有効時間ステップを有する微分方程式の一段階と解釈することができる。
学習したスコアは、学習したエネルギーの勾配の役割を担い、拡散サンプリングとランゲヴィン時間進化の正確な対応を与える。
論文 参考訳(メタデータ) (2025-11-21T19:48:32Z) - Information Theoretic Learning for Diffusion Models with Warm Start [8.455757095201314]
雑音駆動モデルに対してより厳密な確率境界が導出され、最大確率学習の精度と効率が向上する。
我々の重要な洞察は、古典的なKL分散フィッシャー情報関係を任意のノイズ摂動に拡張する。
拡散過程をガウスチャネルとして扱うことにより,提案した対象上界が負対数類似度(NLL)であることを示す。
論文 参考訳(メタデータ) (2025-10-23T18:00:59Z) - Kernel-Smoothed Scores for Denoising Diffusion: A Bias-Variance Study [3.265950484493743]
拡散モデルは暗記しがちである。
スコアの正規化は、トレーニングデータセットのサイズを増やすのと同じ効果がある。
この視点は、拡散をデノナイズする2つの規則化機構を強調する。
論文 参考訳(メタデータ) (2025-05-28T20:22:18Z) - Overcoming Dimensional Factorization Limits in Discrete Diffusion Models through Quantum Joint Distribution Learning [79.65014491424151]
量子離散化拡散確率モデル(QD3PM)を提案する。
これは、指数関数的に大きなヒルベルト空間における拡散と denoising を通じて合同確率学習を可能にする。
本稿では,共同分布学習における量子的優位性を生かして,生成モデルの新たな理論的パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-08T11:48:21Z) - Spatial Reasoning with Denoising Models [49.83744014336816]
本稿では,連続変数の集合に対する推論を行うためのフレームワークを提案する。
初めて、その生成順序をデノナイジングネットワーク自体によって予測できる。
これらの結果から,特定の推論タスクの精度を1%から50%に向上させることができる。
論文 参考訳(メタデータ) (2025-02-28T14:08:30Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Edge-preserving noise for diffusion models [4.435514696080208]
既存の等方性モデルに対して一般化した新しいエッジ保存拡散モデルを提案する。
モデルの生成過程はより高速に収束し, 対象の分布とより密に一致していることを示す。
我々のエッジ保存拡散プロセスは、非条件画像生成における最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-10-02T13:29:52Z) - Dynamic Addition of Noise in a Diffusion Model for Anomaly Detection [2.209921757303168]
拡散モデルは、名目データ分布を捕捉し、再構成を通して異常を識別することで、異常検出に有用な応用を見出した。
それらの利点にもかかわらず、彼らは様々なスケールの異常、特に欠落した成分全体のような大きな異常をローカライズするのに苦労している。
本稿では,従来の暗黙的条件付け手法であるメングらを拡張し,拡散モデルの能力を高める新しい枠組みを提案する。
2022年は3つの重要な意味を持つ。
論文 参考訳(メタデータ) (2024-01-09T09:57:38Z) - Adaptive Multi-step Refinement Network for Robust Point Cloud Registration [82.64560249066734]
ポイントクラウド登録は、同じシーンの2つのポイントクラウド間の相対的な厳密な変換を推定する。
本稿では,前ステップからの情報を活用することで,各ステップの登録品質を向上する適応型多段階改良ネットワークを提案する。
本手法は3DMatch/3DLoMatchベンチマークとKITTIベンチマークの両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-05T18:59:41Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Doubly Stochastic Models: Learning with Unbiased Label Noises and
Inference Stability [85.1044381834036]
勾配降下のミニバッチサンプリング設定におけるラベル雑音の暗黙的正則化効果について検討した。
そのような暗黙的正則化器は、パラメータの摂動に対してモデル出力を安定化できる収束点を好んでいる。
我々の研究は、SGDをオルンシュタイン-ウレンベック類似の過程とはみなせず、近似の収束によってより一般的な結果を得る。
論文 参考訳(メタデータ) (2023-04-01T14:09:07Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。