論文の概要: On the application of Physically-Guided Neural Networks with Internal
Variables to Continuum Problems
- arxiv url: http://arxiv.org/abs/2011.11376v1
- Date: Mon, 23 Nov 2020 13:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:28:43.150603
- Title: On the application of Physically-Guided Neural Networks with Internal
Variables to Continuum Problems
- Title(参考訳): 内部変数を持つ物理誘導型ニューラルネットワークの連続問題への適用について
- Authors: Jacobo Ayensa-Jim\'enez, Mohamed H. Doweidar, Jose A. Sanz-Herrera,
Manuel Doblar\'e
- Abstract要約: 内部変数を用いた物理誘導型ニューラルネットワーク(PGNNIV)を提案する。
普遍的な物理法則は、あるニューロンの値がシステムの内部状態変数として解釈されるように、ニューラルネットワークの制約として使用される。
これにより、ネットワークの容量が拡大するだけでなく、より高速な収束、少ないデータ要求、追加のノイズフィルタリングといった予測特性も向上する。
トレーニングセットで測定可能な値のみを用いることで,予測的かつ説明的能力を示すことによって,この新たな方法論を連続的な物理問題に拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive Physics has been historically based upon the development of
mathematical models that describe the evolution of a system under certain
external stimuli and constraints. The structure of such mathematical models
relies on a set of hysical hypotheses that are assumed to be fulfilled by the
system within a certain range of environmental conditions. A new perspective is
now raising that uses physical knowledge to inform the data prediction
capability of artificial neural networks. A particular extension of this
data-driven approach is Physically-Guided Neural Networks with Internal
Variables (PGNNIV): universal physical laws are used as constraints in the
neural network, in such a way that some neuron values can be interpreted as
internal state variables of the system. This endows the network with unraveling
capacity, as well as better predictive properties such as faster convergence,
fewer data needs and additional noise filtering. Besides, only observable data
are used to train the network, and the internal state equations may be
extracted as a result of the training processes, so there is no need to make
explicit the particular structure of the internal state model. We extend this
new methodology to continuum physical problems, showing again its predictive
and explanatory capacities when only using measurable values in the training
set. We show that the mathematical operators developed for image analysis in
deep learning approaches can be used and extended to consider standard
functional operators in continuum Physics, thus establishing a common framework
for both. The methodology presented demonstrates its ability to discover the
internal constitutive state equation for some problems, including heterogeneous
and nonlinear features, while maintaining its predictive ability for the whole
dataset coverage, with the cost of a single evaluation.
- Abstract(参考訳): 予測物理学は歴史的に、ある外部刺激と制約の下でシステムの進化を記述する数学的モデルの開発に基づいている。
このような数学的モデルの構造は、システムによって一定の範囲の環境条件内で満たされていると仮定される一連の衛生仮説に依存する。
物理的な知識を使って、ニューラルネットワークのデータ予測能力を知らせる新しい視点が生まれている。
このデータ駆動アプローチの特定の拡張は、内部変数を持つ物理誘導ニューラルネットワーク(PGNNIV)である。 普遍的な物理法則は、あるニューロン値がシステムの内部状態変数として解釈されるように、ニューラルネットワークの制約として使用される。
これにより、ネットワークの容量が解放され、より高速な収束、データニーズの削減、ノイズフィルタリングなどの予測特性が向上する。
さらに、ネットワークのトレーニングには観測可能なデータのみを使用し、トレーニングプロセスの結果として内部状態方程式を抽出することができるため、内部状態モデルの特定の構造を明示する必要はない。
この新しい手法を連続的な物理的問題に拡張し、トレーニングセットで測定可能な値のみを使用する場合の予測能力と説明能力を示す。
深層学習における画像解析のために開発された数学的演算子は、連続体物理学における標準的な関数演算子を考慮し、拡張することができ、両方の共通フレームワークを確立することができる。
提案手法は、不均一性や非線形性を含むいくつかの問題に対する内部構成状態方程式の発見と、データセット全体の予測能力を単一評価のコストで維持する能力を示す。
関連論文リスト
- Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Peridynamic Neural Operators: A Data-Driven Nonlocal Constitutive Model
for Complex Material Responses [12.454290779121383]
本研究では,データから非局所法則を学習するPNO(Peridynamic Neural Operator)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このニューラル作用素は、客観性と運動量バランス法則が自動的に保証される状態ベースペリダイナミックスという形でフォワードモデルを提供する。
複雑な応答をキャプチャする能力により、学習したニューラル演算子はベースラインモデルと比較して精度と効率が向上することを示した。
論文 参考訳(メタデータ) (2024-01-11T17:37:20Z) - Predicting and explaining nonlinear material response using deep
Physically Guided Neural Networks with Internal Variables [0.0]
我々は、内部変数を用いた物理ガイドニューラルネットワーク(PGNNIV)の概念を用いて法則を探索する。
PGNNIVは特定の隠された層に制約を課すために、問題の物理を特に利用している。
PGNNIVは、未確認の負荷シナリオ下で、内部変数と外部変数の両方を予測することができることを示す。
論文 参考訳(メタデータ) (2023-08-07T21:20:24Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Learn Like The Pro: Norms from Theory to Size Neural Computation [3.848947060636351]
非線形性を持つ力学系が、それらをエミュレートしようとするニューラル系の設計にどのように影響するかを考察する。
本稿では,学習性尺度を提案し,その関連する特徴を学習力学の近平衡挙動に量子化する。
連続的あるいは離散的な時間ダイナミクスを模倣する乗法ノードを持つニューラルネットワークのクラスの正確なサイズを明らかにしている。
論文 参考訳(メタデータ) (2021-06-21T20:58:27Z) - Identification of state functions by physically-guided neural networks
with physically-meaningful internal layers [0.0]
我々は,物理系における入力-出力関係を予測するために,物理的拘束型ニューラルネットワーク(PCNN)の概念を用いる。
このアプローチは、物理的に予測されるだけでなく、トレーニングプロセスの加速を図っている。
論文 参考訳(メタデータ) (2020-11-17T11:26:37Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。