論文の概要: Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach
- arxiv url: http://arxiv.org/abs/2007.01290v3
- Date: Tue, 20 Oct 2020 16:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:24:29.211975
- Title: Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach
- Title(参考訳): 構造方程式モデルの効率的な神経推定--敵対的アプローチ
- Authors: Luofeng Liao, You-Lin Chen, Zhuoran Yang, Bo Dai, Zhaoran Wang, Mladen
Kolar
- Abstract要約: 一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
- 参考スコア(独自算出の注目度): 144.21892195917758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural equation models (SEMs) are widely used in sciences, ranging from
economics to psychology, to uncover causal relationships underlying a complex
system under consideration and estimate structural parameters of interest. We
study estimation in a class of generalized SEMs where the object of interest is
defined as the solution to a linear operator equation. We formulate the linear
operator equation as a min-max game, where both players are parameterized by
neural networks (NNs), and learn the parameters of these neural networks using
the stochastic gradient descent. We consider both 2-layer and multi-layer NNs
with ReLU activation functions and prove global convergence in an
overparametrized regime, where the number of neurons is diverging. The results
are established using techniques from online learning and local linearization
of NNs, and improve in several aspects the current state-of-the-art. For the
first time we provide a tractable estimation procedure for SEMs based on NNs
with provable convergence and without the need for sample splitting.
- Abstract(参考訳): 構造方程式モデル(SEM)は、経済学から心理学まで、複雑なシステムの根底にある因果関係を解明し、関心の構造的パラメータを推定するために広く用いられている。
対象が線形作用素方程式の解として定義される一般化されたSEMのクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、確率勾配勾配を用いてこれらのニューラルネットワークのパラメータを学習する。
reluアクティベーション機能を持つ2層および多層nnを考察し,ニューロン数が分岐する過パラメータ領域において大域収束を証明した。
結果は、オンライン学習とNNの局所線形化の技術を用いて構築され、現状のいくつかの面で改善されている。
提案手法は,サンプル分割を必要とせず,確固とした収束性を備えたNNに基づくSEMの抽出可能な推定手順を初めて提供する。
関連論文リスト
- Calibrating Neural Networks' parameters through Optimal Contraction in a Prediction Problem [0.0]
論文では、リカレントニューラルネットワーク(RNN)を、パラメータが線形な領域の収縮に変換する方法について詳述する。
次に、損失関数の特定の正規化項を持つRNNによってモデル化された予測問題は、その一階条件を解析的に表現できることを示した。
特定の条件が満たされた場合、最適なパラメータが存在し、任意の所望の精度に簡単なアルゴリズムで見つけることができる。
論文 参考訳(メタデータ) (2024-06-15T18:08:04Z) - Neural Parameter Regression for Explicit Representations of PDE Solution Operators [22.355460388065964]
偏微分方程式(PDE)の解演算子を学習するための新しいフレームワークであるニューラル回帰(NPR)を導入する。
NPRは、ニューラルネットワーク(NN)パラメータを回帰するために、Physics-Informed Neural Network (PINN, Raissi et al., 2021) 技術を使用している。
このフレームワークは、新しい初期条件と境界条件に顕著な適応性を示し、高速な微調整と推論を可能にした。
論文 参考訳(メタデータ) (2024-03-19T14:30:56Z) - Analyzing Populations of Neural Networks via Dynamical Model Embedding [10.455447557943463]
ディープニューラルネットワークの解釈における中核的な課題は、同じタスクのためにトレーニングされた異なるネットワークによって実装された基盤となるアルゴリズム間の共通点を特定することである。
この問題に触発されたDYNAMOは,各点がニューラルネットワークモデルに対応する低次元多様体を構築するアルゴリズムであり,対応するニューラルネットワークが同様のハイレベルな計算処理を実行する場合,その近傍に2つの点が存在する。
DYNAMOは、事前訓練されたニューラルネットワークのコレクションを入力として、隠された状態のダイナミクスとコレクション内の任意のモデルの出力をエミュレートするメタモデルを出力する。
論文 参考訳(メタデータ) (2023-02-27T19:00:05Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。