論文の概要: Estimating the Jacobian matrix of an unknown multivariate function from
sample values by means of a neural network
- arxiv url: http://arxiv.org/abs/2204.00523v1
- Date: Fri, 1 Apr 2022 15:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:36:19.054080
- Title: Estimating the Jacobian matrix of an unknown multivariate function from
sample values by means of a neural network
- Title(参考訳): ニューラルネットワークを用いた未知多変量関数のサンプル値からのヤコビ行列の推定
- Authors: Fr\'ed\'eric Latr\'emoli\`ere, Sadananda Narayanappa and Petr
Vojt\v{e}chovsk\'y
- Abstract要約: 未知の多変量関数$F$のヤコビ行列$J$を推定するために、ニューラルネットワークを訓練するための新しい手法を記述、実装、テストする。
トレーニングセットは有限個のペア$(x, F(x))$から構成され、$J$に関する明示的な情報は含まない。
我々は、アルゴリズムによって与えられる推定ヤコビ行列と実際のヤコビ行列の間に、演算ノルムにおいて、誤差の一様ノルムの上界を正式に確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe, implement and test a novel method for training neural networks
to estimate the Jacobian matrix $J$ of an unknown multivariate function $F$.
The training set is constructed from finitely many pairs $(x,F(x))$ and it
contains no explicit information about $J$. The loss function for
backpropagation is based on linear approximations and on a nearest neighbor
search in the sample data. We formally establish an upper bound on the uniform
norm of the error, in operator norm, between the estimated Jacobian matrix
provided by the algorithm and the actual Jacobian matrix, under natural
assumptions on the function, on the training set and on the loss of the neural
network during training.
The Jacobian matrix of a multivariate function contains a wealth of
information about the function and it has numerous applications in science and
engineering. The method given here represents a step in moving from black-box
approximations of functions by neural networks to approximations that provide
some structural information about the function in question.
- Abstract(参考訳): 未知の多変量関数のヤコビ行列$J$を推定するために、ニューラルネットワークを訓練するための新しい手法を記述、実装、テストする。
トレーニングセットは有限個のペア$(x, F(x))$から構成され、$J$に関する明示的な情報は含まない。
バックプロパゲーションの損失関数は、線形近似とサンプルデータ内の最も近い近傍探索に基づいている。
我々は、アルゴリズムによって提供される推定ヤコビ行列と実際のヤコビ行列との間に、その関数上の自然な仮定の下で、トレーニングセット上で、およびトレーニング中のニューラルネットワークの損失に基づいて、誤差の均一なノルムの上界を演算ノルムで正式に確立する。
多変量関数のヤコビ行列は、関数に関する豊富な情報を含み、科学や工学において多くの応用がある。
この方法は、ニューラルネットワークによる関数のブラックボックス近似から、問題の関数に関するいくつかの構造情報を提供する近似へ移行するステップを表す。
関連論文リスト
- Dimension-independent learning rates for high-dimensional classification
problems [53.622581586464634]
各RBV2$関数は、重みが有界なニューラルネットワークによって近似可能であることを示す。
次に、分類関数を近似した有界重みを持つニューラルネットワークの存在を証明する。
論文 参考訳(メタデータ) (2024-09-26T16:02:13Z) - A Tutorial on Neural Networks and Gradient-free Training [0.0]
本稿では,自己完結型チュートリアル方式で,ニューラルネットワークのコンパクトな行列ベース表現を提案する。
ニューラルネットワークは数個のベクトル値関数を構成する数学的非線形関数である。
論文 参考訳(メタデータ) (2022-11-26T15:33:11Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Nonparametric regression with modified ReLU networks [77.34726150561087]
ネットワーク重み行列を入力ベクトルに乗じる前に,まず関数$alpha$で修正したReLUニューラルネットワークによる回帰推定を考察する。
論文 参考訳(メタデータ) (2022-07-17T21:46:06Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - A Neural Network Ensemble Approach to System Identification [0.6445605125467573]
軌道データから未知の制御方程式を学習するための新しいアルゴリズムを提案する。
ニューラルネットワークのアンサンブルを用いて関数の$f$を近似する。
論文 参考訳(メタデータ) (2021-10-15T21:45:48Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Estimating Multiplicative Relations in Neural Networks [0.0]
対数関数の特性を用いて、積を線形表現に変換し、バックプロパゲーションを用いて学習できるアクティベーション関数のペアを提案する。
いくつかの複雑な算術関数に対してこのアプローチを一般化し、トレーニングセットとの不整合分布の精度を検証しようと試みる。
論文 参考訳(メタデータ) (2020-10-28T14:28:24Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z) - Inference in Multi-Layer Networks with Matrix-Valued Unknowns [32.635971570510755]
出力の観測から多層ニューラルネットワークの入力変数と隠れ変数を推定する問題を考察する。
MAPおよびMMSE推論のための統一近似アルゴリズムを提案する。
提案したMulti-Layer Matrix VAMP (ML-Mat-VAMP) アルゴリズムの性能は, あるランダムな大システム制限下で正確に予測できることが示されている。
論文 参考訳(メタデータ) (2020-01-26T04:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。