論文の概要: Optimal Neural Network Approximation of Wasserstein Gradient Direction
via Convex Optimization
- arxiv url: http://arxiv.org/abs/2205.13098v1
- Date: Thu, 26 May 2022 00:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 07:07:46.232840
- Title: Optimal Neural Network Approximation of Wasserstein Gradient Direction
via Convex Optimization
- Title(参考訳): 凸最適化によるワッサースタイン勾配方向の最適ニューラルネットワーク近似
- Authors: Yifei Wang, Peng Chen, Mert Pilanci, Wuchen Li
- Abstract要約: ワッサーシュタイン勾配方向の計算は、後続サンプリング問題や科学計算に不可欠である。
正方形ReLUアクティベーションを持つ2層ネットワーク群において、半定値プログラミング(SDP)緩和を導出する変動問題について検討する。
このSDPは、2層ネットワークを含むより広い関数群におけるワッサーシュタイン勾配の近似と見なすことができる。
- 参考スコア(独自算出の注目度): 43.6961980403682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The computation of Wasserstein gradient direction is essential for posterior
sampling problems and scientific computing. The approximation of the
Wasserstein gradient with finite samples requires solving a variational
problem. We study the variational problem in the family of two-layer networks
with squared-ReLU activations, towards which we derive a semi-definite
programming (SDP) relaxation. This SDP can be viewed as an approximation of the
Wasserstein gradient in a broader function family including two-layer networks.
By solving the convex SDP, we obtain the optimal approximation of the
Wasserstein gradient direction in this class of functions. Numerical
experiments including PDE-constrained Bayesian inference and parameter
estimation in COVID-19 modeling demonstrate the effectiveness of the proposed
method.
- Abstract(参考訳): ワッサーシュタイン勾配方向の計算は、後方サンプリング問題や科学計算に必須である。
有限サンプルによるワッサーシュタイン勾配の近似は変分問題を解く必要がある。
正方形ReLUアクティベーションを持つ2層ネットワーク群において、半定値プログラミング(SDP)緩和を導出する変動問題について検討する。
このSDPは、2層ネットワークを含むより広い関数群におけるワッサーシュタイン勾配の近似と見なすことができる。
凸 sdp の解法により、この関数のクラスにおけるワッサーシュタイン勾配方向の最適近似が得られる。
PDE制約ベイズ推定とパラメータ推定を含む数値実験により,提案手法の有効性が示された。
関連論文リスト
- A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Variational Wasserstein gradient flow [9.901677207027806]
本稿では、ワッサーシュタイン勾配流に対するスケーラブルな近位勾配型アルゴリズムを提案する。
この枠組みは熱方程式や多孔質媒質方程式を含む古典的なワッサーシュタイン勾配流を網羅する。
論文 参考訳(メタデータ) (2021-12-04T20:27:31Z) - q-RBFNN:A Quantum Calculus-based RBF Neural Network [31.14412266444568]
放射状基底関数ニューラルネットワーク(RBFNN)に対する勾配降下に基づく学習手法を提案する。
提案手法は、ジャクソン微分(Jackson derivative)とも呼ばれるq勾配に基づく。
提案した$q$-RBFNNは最小二乗アルゴリズムの文脈における収束性能について解析する。
論文 参考訳(メタデータ) (2021-06-02T08:27:12Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Learning High Dimensional Wasserstein Geodesics [55.086626708837635]
高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-02-05T04:25:28Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。