論文の概要: On a Neural Implementation of Brenier's Polar Factorization
- arxiv url: http://arxiv.org/abs/2403.03071v2
- Date: Thu, 13 Jun 2024 11:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 23:35:40.781848
- Title: On a Neural Implementation of Brenier's Polar Factorization
- Title(参考訳): Brenierの極性分解のニューラル実装について
- Authors: Nina Vesseron, Marco Cuturi,
- Abstract要約: 1991年、ブレニエは正方行列の極分解を任意のベクトル場 $F:mathbbRdright mathbbRdarrow に PSD $times$ Unitary として分解する定理を証明した。
本稿では,偏波分解定理の実践的実装を提案し,機械学習における可能性を探る。
- 参考スコア(独自算出の注目度): 24.48716080522871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 1991, Brenier proved a theorem that generalizes the polar decomposition for square matrices -- factored as PSD $\times$ unitary -- to any vector field $F:\mathbb{R}^d\rightarrow \mathbb{R}^d$. The theorem, known as the polar factorization theorem, states that any field $F$ can be recovered as the composition of the gradient of a convex function $u$ with a measure-preserving map $M$, namely $F=\nabla u \circ M$. We propose a practical implementation of this far-reaching theoretical result, and explore possible uses within machine learning. The theorem is closely related to optimal transport (OT) theory, and we borrow from recent advances in the field of neural optimal transport to parameterize the potential $u$ as an input convex neural network. The map $M$ can be either evaluated pointwise using $u^*$, the convex conjugate of $u$, through the identity $M=\nabla u^* \circ F$, or learned as an auxiliary network. Because $M$ is, in general, not injective, we consider the additional task of estimating the ill-posed inverse map that can approximate the pre-image measure $M^{-1}$ using a stochastic generator. We illustrate possible applications of Brenier's polar factorization to non-convex optimization problems, as well as sampling of densities that are not log-concave.
- Abstract(参考訳): 1991年、ブレニエは正方行列の極分解(PSD $\times$ unitary)を任意のベクトル場 $F:\mathbb{R}^d\rightarrow \mathbb{R}^d$ に一般化する定理を証明した。
極因数分解定理として知られるこの定理は、任意の体$F$は、測度保存写像$M$、すなわち$F=\nabla u \circ M$を持つ凸函数$u$の勾配の合成として回復できると述べている。
本稿では,この理論結果の実践的実装を提案し,機械学習の応用の可能性を探る。
この定理は最適輸送(OT)理論と密接に関連しており、入力凸ニューラルネットワークとしてu$のポテンシャルをパラメータ化するために、ニューラル最適輸送の分野における最近の進歩から借用する。
写像$M$は、$u^*$、$u$の凸共役、$M=\nabla u^* \circ F$、または補助ネットワークとして学ぶことで、ポイントワイズで評価することができる。
一般に、$M$ は単射ではないので、確率的生成器を用いて事前像測度 $M^{-1}$ を近似できる不測の逆写像を推定する追加のタスクを考える。
本稿では,非凸最適化問題に対するブレニエの偏極分解の応用と,対数対数でない密度のサンプリングについて述べる。
関連論文リスト
- New advances in universal approximation with neural networks of minimal width [4.424170214926035]
リークReLUアクティベーションを持つオートエンコーダは$Lp$関数の普遍近似器であることを示す。
我々は,滑らかな可逆ニューラルネットワークが$Lp(mathbbRd,mathbbRd)$をコンパクト化できることを示す。
論文 参考訳(メタデータ) (2024-11-13T16:17:16Z) - Tensor network approximation of Koopman operators [0.0]
本稿では,測度保存エルゴディックシステムの可観測物の進化を近似する枠組みを提案する。
提案手法は,スキューアジョイント・クープマン発生器のスペクトル収束近似に基づく。
この量子に着想を得た近似の重要な特徴は、次元$(2d+1)n$のテンソル積空間から情報を取得することである。
論文 参考訳(メタデータ) (2024-07-09T21:40:14Z) - Transfer Operators from Batches of Unpaired Points via Entropic
Transport Kernels [3.099885205621181]
そこで我々は,最大形推論関数を導出し,計算可能な近似を提案し,それらの特性を解析する。
我々は、ブロック数$N$が無限に近づくと、経験的近似から真の密度を回復できることを示す$Gamma$-convergenceの結果を証明する。
論文 参考訳(メタデータ) (2024-02-13T12:52:41Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Near-optimal fitting of ellipsoids to random points [68.12685213894112]
楕円体をランダムな点に合わせるという基本的な問題は、低ランク行列分解、独立成分分析、主成分分析に関係している。
我々はこの予想を、ある$n = Omega(, d2/mathrmpolylog(d))$ に対する適合楕円体を構成することで対数的因子まで解決する。
我々の証明は、ある非標準確率行列の便利な分解を用いて、サンダーソン等最小二乗構成の実現可能性を示す。
論文 参考訳(メタデータ) (2022-08-19T18:00:34Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Fast Convergence of Langevin Dynamics on Manifold: Geodesics meet
Log-Sobolev [31.57723436316983]
ある関数に対して高次元分布行列からサンプリングする1つのアプローチはランゲヴィンアルゴリズムである。
私たちの仕事は[53]の結果を一般化します。$mathRn$ は $bbRn$ ではなく af$ で定義されます。
論文 参考訳(メタデータ) (2020-10-11T15:02:12Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。