論文の概要: Parsimonious neural networks learn interpretable physical laws
- arxiv url: http://arxiv.org/abs/2005.11144v3
- Date: Wed, 16 Dec 2020 21:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:25:40.986676
- Title: Parsimonious neural networks learn interpretable physical laws
- Title(参考訳): ニューラルネットワークが解釈可能な物理法則を学習する
- Authors: Saaketh Desai, Alejandro Strachan
- Abstract要約: 本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is playing an increasing role in the physical sciences and
significant progress has been made towards embedding domain knowledge into
models. Less explored is its use to discover interpretable physical laws from
data. We propose parsimonious neural networks (PNNs) that combine neural
networks with evolutionary optimization to find models that balance accuracy
with parsimony. The power and versatility of the approach is demonstrated by
developing models for classical mechanics and to predict the melting
temperature of materials from fundamental properties. In the first example, the
resulting PNNs are easily interpretable as Newton's second law, expressed as a
non-trivial time integrator that exhibits time-reversibility and conserves
energy, where the parsimony is critical to extract underlying symmetries from
the data. In the second case, the PNNs not only find the celebrated Lindemann
melting law, but also new relationships that outperform it in the pareto sense
of parsimony vs. accuracy.
- Abstract(参考訳): 機械学習は物理科学において役割を担い、ドメイン知識をモデルに組み込むという大きな進歩を遂げている。
より詳しくは、データから解釈可能な物理法則を発見するために使われる。
我々は,ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し,精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
最初の例では、結果として得られるpnnはニュートンの第二法則として容易に解釈でき、時間反転可能性を示し、エネルギーを保存する非自明な時間積分器として表される。
第2のケースでは、PNNは祝福されたリンデマン融解法だけでなく、パーシモニーと精度というパーシモニーの感覚でそれを上回る新しい関係も見出す。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Extreme sparsification of physics-augmented neural networks for
interpretable model discovery in mechanics [0.0]
本稿では,L0$-regularizationのスムーズなバージョンを用いて,正規化された物理拡張ニューラルネットワークモデルを訓練することを提案する。
本手法は, 可圧縮・非圧縮熱力学, 降伏関数, 弾塑性の硬化モデルに対して, 解釈可能かつ信頼性の高いモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T16:28:58Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Interpretable Quantum Advantage in Neural Sequence Learning [2.575030923243061]
非ガウス測度を用いたガウス演算に基づくニューラルネットワーク列モデルと反復モデルとの相対表現力について検討した。
我々は、2つのモデルクラスの表現性において、無条件メモリ分離の源として量子テクスチュアリティ(quantum contextuality)を指摘する。
このようにして、我々の導入した量子モデルが、実際にさえも古典的モデルの状態を上回り得ることを実証する。
論文 参考訳(メタデータ) (2022-09-28T18:34:04Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Physics-enhanced Neural Networks in the Small Data Regime [0.0]
トレーニング中の実エネルギーレベルを正規化用語として考えることで、さらに改善できることが示される。
特に、少量のデータしか利用できない場合、これらの改善は予測能力を著しく向上させることができる。
論文 参考訳(メタデータ) (2021-11-19T17:21:14Z) - A deep learning framework for solution and discovery in solid mechanics [1.4699455652461721]
本稿では,物理情報ニューラルネットワーク(PINN)と呼ばれるディープラーニングのクラスを,固体力学の学習と発見に応用する。
本稿では, 運動量バランスと弾性の関係をPINNに組み込む方法について解説し, 線形弾性への応用について詳細に検討する。
論文 参考訳(メタデータ) (2020-02-14T08:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。