論文の概要: On Using Deep Learning Proxies as Forward Models in Deep Learning
Problems
- arxiv url: http://arxiv.org/abs/2301.07102v1
- Date: Mon, 16 Jan 2023 04:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 17:38:36.245233
- Title: On Using Deep Learning Proxies as Forward Models in Deep Learning
Problems
- Title(参考訳): ディープラーニング問題におけるフォワードモデルとしてのディープラーニングプロキシの利用について
- Authors: Fatima Albreiki, Nidhal Belayouni and Deepak K. Gupta
- Abstract要約: 近年の研究では、物理モデリングがニューラルネットワークで近似できることが示されている。
このような関数のニューラルネットワーク近似(NN-プロキシ)が誤った結果をもたらすことを実証する。
特に,粒子群最適化と遺伝的アルゴリズムの挙動について検討した。
- 参考スコア(独自算出の注目度): 5.478764356647437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-based optimization problems are generally very time-consuming,
especially due to the computational complexity associated with the forward
model. Recent works have demonstrated that physics-modelling can be
approximated with neural networks. However, there is always a certain degree of
error associated with this learning, and we study this aspect in this paper. We
demonstrate through experiments on popular mathematical benchmarks, that neural
network approximations (NN-proxies) of such functions when plugged into the
optimization framework, can lead to erroneous results. In particular, we study
the behavior of particle swarm optimization and genetic algorithm methods and
analyze their stability when coupled with NN-proxies. The correctness of the
approximate model depends on the extent of sampling conducted in the parameter
space, and through numerical experiments, we demonstrate that caution needs to
be taken when constructing this landscape with neural networks. Further, the
NN-proxies are hard to train for higher dimensional functions, and we present
our insights for 4D and 10D problems. The error is higher for such cases, and
we demonstrate that it is sensitive to the choice of the sampling scheme used
to build the NN-proxy. The code is available at
https://github.com/Fa-ti-ma/NN-proxy-in-optimization.
- Abstract(参考訳): 物理学に基づく最適化問題は一般に非常に時間がかかり、特にフォワードモデルに関連する計算の複雑さのためである。
近年の研究では、物理モデルがニューラルネットワークで近似できることが示されている。
しかし,この学習には必ずある程度の誤りがあり,本論文ではこの点について検討する。
本稿では,ニューラルネットワークの近似(NN-プロキシ)を最適化フレームワークに挿入すると,誤った結果が得られるという,一般的な数学ベンチマークの実験を通じて実証する。
特に粒子群最適化と遺伝的アルゴリズム手法の挙動を解析し,nn-プロキシと組み合わせた場合の安定性を解析した。
近似モデルの正しさは,パラメータ空間におけるサンプリングの程度に依存し,数値実験により,この景観をニューラルネットワークで構築するには注意が必要であることを示した。
さらに, NNプロキシは高次元関数の訓練が困難であり, 4次元および10次元問題に対する知見を提示する。
このような場合の誤差は高く,NN-プロキシの構築に使用するサンプリング方式の選択に敏感であることを示す。
コードはhttps://github.com/fa-ti-ma/nn-proxy-in-optimizationで入手できる。
関連論文リスト
- The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - Spectral-Refiner: Fine-Tuning of Accurate Spatiotemporal Neural Operator for Turbulent Flows [6.961408873053586]
本稿では,ボヒナー空間間のマップを学習する新しい時間的ニューラル演算子(SFNO)と,これらの問題に対処する新しい学習フレームワークを提案する。
この新しいパラダイムは、従来の数値PDE理論と技法の知恵を利用して、一般的に採用されているエンドツーエンドのニューラル演算子のトレーニングと評価のパイプラインを洗練する。
2次元NSEのための一般的なベンチマークの数値実験は、エンドツーエンド評価や従来の数値PDEソルバと比較して計算効率と精度の両方が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。