論文の概要: Normalizing Diffusion Kernels with Optimal Transport
- arxiv url: http://arxiv.org/abs/2507.06161v1
- Date: Tue, 08 Jul 2025 16:42:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.351328
- Title: Normalizing Diffusion Kernels with Optimal Transport
- Title(参考訳): 最適輸送による拡散カーネルの正規化
- Authors: Nathan Kessler, Robin Magnet, Jean Feydy,
- Abstract要約: ラプラシアンから望ましい性質を継承する滑らかな作用素のクラスを導入する。
この構造により、ラプラシア風の平滑化と不規則データの処理が可能となる。
得られた演算子は熱拡散を近似するが、ラプラシアン自体のスペクトル情報も保持する。
- 参考スコア(独自算出の注目度): 4.081238502499229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smoothing a signal based on local neighborhoods is a core operation in machine learning and geometry processing. On well-structured domains such as vector spaces and manifolds, the Laplace operator derived from differential geometry offers a principled approach to smoothing via heat diffusion, with strong theoretical guarantees. However, constructing such Laplacians requires a carefully defined domain structure, which is not always available. Most practitioners thus rely on simple convolution kernels and message-passing layers, which are biased against the boundaries of the domain. We bridge this gap by introducing a broad class of smoothing operators, derived from general similarity or adjacency matrices, and demonstrate that they can be normalized into diffusion-like operators that inherit desirable properties from Laplacians. Our approach relies on a symmetric variant of the Sinkhorn algorithm, which rescales positive smoothing operators to match the structural behavior of heat diffusion. This construction enables Laplacian-like smoothing and processing of irregular data such as point clouds, sparse voxel grids or mixture of Gaussians. We show that the resulting operators not only approximate heat diffusion but also retain spectral information from the Laplacian itself, with applications to shape analysis and matching.
- Abstract(参考訳): 局所近傍に基づく信号の平滑化は、機械学習と幾何学処理における中核的な操作である。
ベクトル空間や多様体のようなよく構造化された領域において、微分幾何学から導かれるラプラス作用素は熱拡散による滑らか化の原理的なアプローチを提供し、強い理論的保証を与える。
しかし、そのようなラプラシアンを構成するには、常に利用できるとは限らない、慎重に定義されたドメイン構造が必要である。
したがって、ほとんどの実践者は単純な畳み込みカーネルとメッセージパッシング層を頼りにしており、ドメインの境界に偏っている。
このギャップは、一般類似性や隣接行列から導かれる幅広い滑らかな作用素のクラスを導入し、ラプラシアンから望ましい性質を継承する拡散様作用素に正規化できることを証明して、橋渡しする。
提案手法は, 熱拡散の構造挙動に適合する正の平滑化演算子を再スケールするシンクホーンアルゴリズムの対称変種に依存する。
この構造は、点雲、スパース・ボクセル格子、ガウスの混合のような不規則なデータのラプラシアン的な平滑化と処理を可能にする。
得られた演算子は熱拡散を近似するだけでなく、ラプラシアンのスペクトル情報も保持し、形状解析やマッチングにも応用できることを示す。
関連論文リスト
- GMapLatent: Geometric Mapping in Latent Space [51.317738404571514]
エンコーダ-デコーダAIアーキテクチャに基づくドメイン間の生成モデルは、現実的な画像の生成に大きな注目を集めている。
幾何学的マッピングに基づく正準潜在空間表現を導入し、領域間潜在空間を厳密かつ正確に整列する。
グレースケールおよびカラー画像の実験は、GMapLatentの有効性、有効性および適用性を検証する。
論文 参考訳(メタデータ) (2025-03-30T12:02:36Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Towards Training Without Depth Limits: Batch Normalization Without
Gradient Explosion [83.90492831583997]
バッチ正規化ネットワークは,信号伝搬特性を最適に保ちつつ,爆発的な勾配を回避することができることを示す。
線形アクティベーションとバッチ正規化を備えた多層パーセプトロン(MLP)を用いて,有界深度を実証する。
また、ある非線形活性化に対して同じ特性を経験的に達成する活性化整形法を設計する。
論文 参考訳(メタデータ) (2023-10-03T12:35:02Z) - Kernelized Diffusion maps [2.817412580574242]
本稿では、再生カーネルヒルベルト空間法を用いて、ラプラシアンの異なる推定器を構築する。
我々は、構築したカーネル推定器が次元性の呪いを回避できることを示す非漸近統計率を提供する。
論文 参考訳(メタデータ) (2023-02-13T23:54:36Z) - Intrinsic Bayesian Optimisation on Complex Constrained Domain [4.164327213986953]
ユークリッド空間におけるベイズ最適化アルゴリズムの成功により、本質的ベイズ最適化(In-BO)を構築するための新しいアプローチを提案する。
データは空間領域で収集されるが、湖のような地理的特徴に対応する複雑な領域や複雑な構造に制限される。
In-BOの効率は、U字型の領域、ビッテントーラス、アラル海からの実際のデータセットのシミュレーション研究によって実証される。
論文 参考訳(メタデータ) (2023-01-29T23:28:08Z) - Isotropic Gaussian Processes on Finite Spaces of Graphs [71.26737403006778]
種々の非重み付きグラフの集合上でガウス過程の先行を定義するための原理的手法を提案する。
さらに、未重み付きグラフの同値類の集合を検討し、それに対する事前の適切なバージョンを定義する。
化学の応用に触発されて、我々は、小データ構造における実際の分子特性予測タスクについて、提案手法を解説した。
論文 参考訳(メタデータ) (2022-11-03T10:18:17Z) - Capturing Graphs with Hypo-Elliptic Diffusions [7.704064306361941]
ランダムウォークの分布はグラフラプラシアンを用いて定義された拡散方程式に従って進化することを示す。
この結果、テンソル値のグラフ作用素が新しくなり、これは下楕円グラフラプラシアン (Laplacian) と呼ばれる。
本手法は,長距離推論を必要とするデータセット上のグラフ変換器と競合するが,エッジ数では線形にしかスケールしないことを示す。
論文 参考訳(メタデータ) (2022-05-27T16:47:34Z) - Outlier Detection for Trajectories via Flow-embeddings [2.66418345185993]
本稿では, 単体錯体でモデル化した離散化多様体上での実験的に観測された軌道の外れ値を検出する手法を提案する。
我々のアプローチは拡散写像やラプラシア固有写像のようなスペクトル埋め込みと似ており、低固有値に関連するグラフラプラシアンの固有ベクトルから埋め込みを構成する。
本手法は, 一般的な軌跡と(位相的に)異なる挙動の軌跡を抽出し, 合成データと経験データの両方を用いて, アプローチの性能を示す。
論文 参考訳(メタデータ) (2021-11-25T19:58:48Z) - Spectral convergence of diffusion maps: improved error bounds and an
alternative normalisation [0.6091702876917281]
本稿では,分布がハイパートーラス上でサポートされているモデルの場合の誤差境界を改善するために,新しい手法を用いる。
我々は、スペクトルデータと演算子離散化のノルム収束の両方に対して、長年のポイントワイズ誤差境界と一致する。
また、シンクホーン重みに基づく拡散写像の別の正規化も導入する。
論文 参考訳(メタデータ) (2020-06-03T04:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。