論文の概要: DEGMC: Denoising Diffusion Models Based on Riemannian Equivariant Group Morphological Convolutions
- arxiv url: http://arxiv.org/abs/2602.10221v1
- Date: Tue, 10 Feb 2026 19:13:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.24127
- Title: DEGMC: Denoising Diffusion Models Based on Riemannian Equivariant Group Morphological Convolutions
- Title(参考訳): DEGMC: リーマン同変群の形態的畳み込みに基づく拡散モデル
- Authors: El Hadji S. Diop, Thierno Fall, Mohamed Daoudi,
- Abstract要約: DDPM(Denoising Diffusion Probabilistic Models)における2つの問題に対処する。
より一般的なユークリッド群の同値性と幾何学的アプローチを導入する。
MNIST、RotoMNIST、CIFAR-10データセットの実験結果は、ベースラインDDPMモデルと比較して顕著に改善された。
- 参考スコア(独自算出の注目度): 4.185301436243608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we address two major issues in recent Denoising Diffusion Probabilistic Models (DDPM): {\bf 1)} geometric key feature extraction and {\bf 2)} network equivariance. Since the DDPM prediction network relies on the U-net architecture, which is theoretically only translation equivariant, we introduce a geometric approach combined with an equivariance property of the more general Euclidean group, which includes rotations, reflections, and permutations. We introduce the notion of group morphological convolutions in Riemannian manifolds, which are derived from the viscosity solutions of first-order Hamilton-Jacobi-type partial differential equations (PDEs) that act as morphological multiscale dilations and erosions. We add a convection term to the model and solve it using the method of characteristics. This helps us better capture nonlinearities, represent thin geometric structures, and incorporate symmetries into the learning process. Experimental results on the MNIST, RotoMNIST, and CIFAR-10 datasets show noticeable improvements compared to the baseline DDPM model.
- Abstract(参考訳): 本稿では,近年のDenoising Diffusion Probabilistic Models (DDPM): {\bf 1)} 幾何的鍵特徴抽出と {\bf 2)} ネットワーク等価性の2つの問題に対処する。
DDPM予測ネットワークは理論上唯一の変換同変であるU-netアーキテクチャに依存しているため、回転、反射、置換を含むより一般的なユークリッド群の同値性と組み合わせた幾何学的アプローチを導入する。
一階ハミルトン-ヤコビ型偏微分方程式(PDE)の粘性解から導かれるリーマン多様体における群形態的畳み込みの概念を導入する。
モデルに対流項を加え,特徴量を用いた解法を提案する。
これにより非線形性をよりよく捉え、薄い幾何学構造を表現し、対称性を学習プロセスに組み込むことができます。
MNIST、RotoMNIST、CIFAR-10データセットの実験結果は、ベースラインDDPMモデルと比較して顕著に改善された。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [50.85040046976025]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Geometric Generative Models based on Morphological Equivariant PDEs and GANs [3.6498648388765513]
群畳み込みニューラルネットワーク(G-CNN)のための等変偏微分方程式(PDE)に基づく幾何学的生成モデルを提案する。
提案手法は, PDE-G-CNNにおける形態的同変畳み込みを用いて, GM-GAN (Geological morphological GAN) を求める。
予備的な結果は、GM-GANモデルが古典的GANより優れていることを示している。
論文 参考訳(メタデータ) (2024-03-22T01:02:09Z) - Equivariant Manifold Neural ODEs and Differential Invariants [1.6073704837297416]
我々は同変多様体ニューラル常微分方程式(NODE)の明らかな幾何学的枠組みを開発する。
私たちは、対称データに対するモデリング能力を解析するためにそれを使用します。
論文 参考訳(メタデータ) (2024-01-25T12:23:22Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Machine Learning and Variational Algorithms for Lattice Field Theory [1.198562319289569]
格子量子場論の研究において、格子理論を定義するパラメータは連続体物理学にアクセスする臨界性に向けて調整されなければならない。
経路積分の領域に適用される輪郭変形に基づいてモンテカルロ推定器を「変形」する手法を提案する。
我々は,フローベースMCMCが臨界減速を緩和し,オブザーシフォールドが原理的応用のばらつきを指数関数的に低減できることを実証した。
論文 参考訳(メタデータ) (2021-06-03T16:37:05Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。