論文の概要: Matching the Optimal Denoiser in Point Cloud Diffusion with (Improved) Rotational Alignment
- arxiv url: http://arxiv.org/abs/2510.03335v1
- Date: Thu, 02 Oct 2025 05:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.840495
- Title: Matching the Optimal Denoiser in Point Cloud Diffusion with (Improved) Rotational Alignment
- Title(参考訳): 点雲拡散における最適デノイザと回転アライメントとの整合性
- Authors: Ameya Daigavane, YuQing Xie, Bodhi P. Vani, Saeed Saremi, Joseph Kleinhenz, Tess Smidt,
- Abstract要約: 拡散モデルのトレーニングは、ノイズレベルの異なるサンプルをノイズにする方法を学ぶことで構成される。
最適デノイザは行列フィッシャー分布を$SO(3)$で表現できることを示す。
我々はこの視点に基づいて、小さな雑音の限界において最適なデノイザにより良い近似器を導出する。
- 参考スコア(独自算出の注目度): 5.8069334875117775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models are a popular class of generative models trained to reverse a noising process starting from a target data distribution. Training a diffusion model consists of learning how to denoise noisy samples at different noise levels. When training diffusion models for point clouds such as molecules and proteins, there is often no canonical orientation that can be assigned. To capture this symmetry, the true data samples are often augmented by transforming them with random rotations sampled uniformly over $SO(3)$. Then, the denoised predictions are often rotationally aligned via the Kabsch-Umeyama algorithm to the ground truth samples before computing the loss. However, the effect of this alignment step has not been well studied. Here, we show that the optimal denoiser can be expressed in terms of a matrix Fisher distribution over $SO(3)$. Alignment corresponds to sampling the mode of this distribution, and turns out to be the zeroth order approximation for small noise levels, explaining its effectiveness. We build on this perspective to derive better approximators to the optimal denoiser in the limit of small noise. Our experiments highlight that alignment is often a `good enough' approximation for the noise levels that matter most for training diffusion models.
- Abstract(参考訳): 拡散モデル(英: Diffusion model)は、ターゲットデータ分布から始まるノイズ発生過程を逆転するように訓練された、一般的な生成モデルのクラスである。
拡散モデルのトレーニングは、ノイズレベルの異なるサンプルをノイズにする方法を学ぶことで構成される。
分子やタンパク質などの点雲の拡散モデルを訓練する場合、割り当てられる正準配向は存在しないことが多い。
この対称性を捉えるために、真のデータサンプルは、しばしば$SO(3)$で一様にサンプリングされたランダムな回転で変換される。
そして、解法予測はしばしば、損失を計算する前にカブシュ・梅山アルゴリズムを介して基底真理サンプルに回転的に整列される。
しかし、このアライメントステップの効果は十分に研究されていない。
ここでは、最適デノイザは、$SO(3)$以上の行列フィッシャー分布で表現できることを示す。
アライメントは、この分布のモードをサンプリングすることに対応し、その効果を説明するため、小さな雑音レベルに対するゼロ階近似であることが判明した。
我々はこの視点に基づいて、小さな雑音の限界において最適なデノイザにより良い近似器を導出する。
我々の実験では、アライメントはしばしば、トレーニング拡散モデルにとって最も重要なノイズレベルに対する「十分良い」近似であることを強調した。
関連論文リスト
- Diffusion Model-Based Posterior Sampling in Full Waveform Inversion [3.2800968305157205]
観測記録の後方サンプリングは フィールドスケールでは めったに実用的ではない
提案手法は,拡散型後方サンプリングと同時音源波形インバージョンデータを組み合わせた手法である。
提案手法は, モデル誤差の低減と, 計算コストの大幅な削減を実現する。
論文 参考訳(メタデータ) (2025-12-14T18:34:12Z) - A Minimalist Method for Fine-tuning Text-to-Image Diffusion Models [3.8623569699070357]
ノイズPPOは、初期雑音発生器を学習する最小限の強化学習アルゴリズムである。
実験により、ノイズPPOは元のモデルよりもアライメントとサンプル品質を一貫して改善することが示された。
これらの知見は拡散モデルにおける最小主義的RL微調整の実用的価値を裏付けるものである。
論文 参考訳(メタデータ) (2025-05-23T00:01:52Z) - Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Robust Representation Consistency Model via Contrastive Denoising [83.47584074390842]
ランダムな平滑化は、敵の摂動に対する堅牢性を証明する理論的保証を提供する。
拡散モデルは、ノイズ摂動サンプルを浄化するためにランダムな平滑化に成功している。
我々は,画素空間における拡散軌跡に沿った生成的モデリングタスクを,潜在空間における識別的タスクとして再構成する。
論文 参考訳(メタデータ) (2025-01-22T18:52:06Z) - On the Relation Between Linear Diffusion and Power Iteration [42.158089783398616]
相関機械として生成過程を研究する」
生成過程の早い段階で低周波が出現し, 固有値に依存する速度で, 偏極基底ベクトルが真のデータにより整合していることが示される。
このモデルにより、線形拡散モデルが、一般的な電力反復法と同様に、基礎データの先頭固有ベクトルに平均的に収束することを示すことができる。
論文 参考訳(メタデータ) (2024-10-16T07:33:12Z) - Your Diffusion Model is Secretly a Noise Classifier and Benefits from Contrastive Training [20.492630610281658]
拡散モデルはデータをノイズ化することを学び、訓練されたデノイザを使用してデータ分布から新しいサンプルを生成する。
サンプルに追加される雑音のレベルを識別する,新たな自己教師型学習目標を提案する。
提案手法は逐次的および並列的な設定に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-12T03:03:50Z) - Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Adaptive Multi-step Refinement Network for Robust Point Cloud Registration [82.64560249066734]
ポイントクラウド登録は、同じシーンの2つのポイントクラウド間の相対的な厳密な変換を推定する。
本稿では,前ステップからの情報を活用することで,各ステップの登録品質を向上する適応型多段階改良ネットワークを提案する。
本手法は3DMatch/3DLoMatchベンチマークとKITTIベンチマークの両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-05T18:59:41Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - Boosting Fast and High-Quality Speech Synthesis with Linear Diffusion [85.54515118077825]
本稿では, 常微分方程式に基づく線形拡散モデル(LinDiff)を提案する。
計算複雑性を低減するため、LinDiffでは、入力信号を小さなパッチに分割するパッチベースの処理アプローチを採用している。
我々のモデルは、より高速な合成速度で自己回帰モデルに匹敵する品質の音声を合成することができる。
論文 参考訳(メタデータ) (2023-06-09T07:02:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。