論文の概要: StarNet: Gradient-free Training of Deep Generative Models using
Determined System of Linear Equations
- arxiv url: http://arxiv.org/abs/2101.00574v1
- Date: Sun, 3 Jan 2021 08:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 05:37:32.456331
- Title: StarNet: Gradient-free Training of Deep Generative Models using
Determined System of Linear Equations
- Title(参考訳): StarNet:線形方程式決定系を用いた深部生成モデルのグラディエントフリートレーニング
- Authors: Amir Zadeh, Santiago Benoit, Louis-Philippe Morency
- Abstract要約: 本稿では,線形方程式の解法に基づく深層生成モデルの学習手法を提案する。
StarNetと呼ばれるこのアプローチを使用するネットワークには、以下の望ましい特性があります。
- 参考スコア(独自算出の注目度): 47.72653430712088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present an approach for training deep generative models
solely based on solving determined systems of linear equations. A network that
uses this approach, called a StarNet, has the following desirable properties:
1) training requires no gradient as solution to the system of linear equations
is not stochastic, 2) is highly scalable when solving the system of linear
equations w.r.t the latent codes, and similarly for the parameters of the
model, and 3) it gives desirable least-square bounds for the estimation of
latent codes and network parameters within each layer.
- Abstract(参考訳): 本稿では,線形方程式の確定解法のみに基づいて,深部生成モデルを訓練する手法を提案する。
このアプローチをStarNetと呼ぶネットワークは、次の望ましい性質を持つ: 1) 線形方程式の解に対する解の勾配を必要としない; 2) 線形方程式の系を解く際に高度にスケーラブルであり、同様にモデルのパラメータに対して、3) 遅延符号とネットワークパラメータを各層で推定するのに望ましい最小二乗境界を与える。
関連論文リスト
- Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers [42.69799418639716]
深層学習モデルは、共役勾配 (CG) 法のような線形解法を反復する際の残差を予条件として用いることができる。
ニューラルネットワークモデルは、この設定でうまく近似するために、膨大な数のパラメータを必要とする。
本研究では,線形代数学から確立したプレコンディショナーを思い出し,GNNの学習の出発点として利用する。
論文 参考訳(メタデータ) (2024-05-24T13:44:30Z) - An L-BFGS-B approach for linear and nonlinear system identification under $\ell_1$- and group-Lasso regularization [0.0]
線形および非線形離散時間状態空間モデルを同定するための非常に効率的な数値計算法を提案する。
提案手法のPython実装は、jax-sysidパッケージで利用可能である。
論文 参考訳(メタデータ) (2024-03-06T16:17:34Z) - Generalized Quadratic Embeddings for Nonlinear Dynamics using Deep
Learning [11.339982217541822]
本稿では非線形システムの力学をモデル化するためのデータ駆動手法を提案する。
本研究では,昇降原理に着想を得た2次系を共通構造として用いることを提案する。
論文 参考訳(メタデータ) (2022-11-01T10:03:34Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Unsupervised Reservoir Computing for Solving Ordinary Differential
Equations [1.6371837018687636]
通常の微分方程式(ODE)を満たす近似解を発見することができるエコー状態のリカレントニューラルネットワーク
ベイジアン最適化を用いて高次元ハイパーパラメータ空間における最適集合を効率よく発見し、1つの集合がロバストであり、異なる初期条件と時間範囲のODEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-08-25T18:16:42Z) - Linear embedding of nonlinear dynamical systems and prospects for
efficient quantum algorithms [74.17312533172291]
有限非線形力学系を無限線型力学系(埋め込み)にマッピングする方法を述べる。
次に、有限線型系 (truncation) による結果の無限線型系を近似するアプローチを検討する。
論文 参考訳(メタデータ) (2020-12-12T00:01:10Z) - Deep neural network for solving differential equations motivated by
Legendre-Galerkin approximation [16.64525769134209]
線形微分方程式と非線形微分方程式の両方における様々なニューラルネットワークアーキテクチャの性能と精度について検討する。
我々は、微分方程式の解を予測するために、新しいレジェンダ-ガレルキンディープニューラルネットワーク(LGNet)アルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-10-24T20:25:09Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。