論文の概要: Explainable artificial intelligence for mechanics: physics-informing
neural networks for constitutive models
- arxiv url: http://arxiv.org/abs/2104.10683v1
- Date: Tue, 20 Apr 2021 18:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 14:06:29.771223
- Title: Explainable artificial intelligence for mechanics: physics-informing
neural networks for constitutive models
- Title(参考訳): 力学のための説明可能な人工知能:構成モデルのための物理インフォーメーションニューラルネットワーク
- Authors: Arnd Koeppe and Franz Bamer and Michael Selzer and Britta Nestler and
Bernd Markert
- Abstract要約: メカニクスにおいて、物理インフォームドニューラルネットワークの新しい活発な分野は、機械的知識に基づいてディープニューラルネットワークを設計することによって、この欠点を緩和しようとする。
本論文では,機械データに訓練されたニューラルネットワークを後述する物理形成型アプローチへの第一歩を提案する。
これにより、主成分分析はRNNの細胞状態における分散表現をデコレーションし、既知の基本関数との比較を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: (Artificial) neural networks have become increasingly popular in mechanics as
means to accelerate computations with model order reduction techniques and as
universal models for a wide variety of materials. However, the major
disadvantage of neural networks remains: their numerous parameters are
challenging to interpret and explain. Thus, neural networks are often labeled
as black boxes, and their results often elude human interpretation. In
mechanics, the new and active field of physics-informed neural networks
attempts to mitigate this disadvantage by designing deep neural networks on the
basis of mechanical knowledge. By using this a priori knowledge, deeper and
more complex neural networks became feasible, since the mechanical assumptions
could be explained. However, the internal reasoning and explanation of neural
network parameters remain mysterious.
Complementary to the physics-informed approach, we propose a first step
towards a physics-informing approach, which explains neural networks trained on
mechanical data a posteriori. This novel explainable artificial intelligence
approach aims at elucidating the black box of neural networks and their
high-dimensional representations. Therein, the principal component analysis
decorrelates the distributed representations in cell states of RNNs and allows
the comparison to known and fundamental functions. The novel approach is
supported by a systematic hyperparameter search strategy that identifies the
best neural network architectures and training parameters. The findings of
three case studies on fundamental constitutive models (hyperelasticity,
elastoplasticity, and viscoelasticity) imply that the proposed strategy can
help identify numerical and analytical closed-form solutions to characterize
new materials.
- Abstract(参考訳): (人工)ニューラルネットワークは, モデルオーダー低減技術による計算の高速化や, 幅広い材料に対する普遍モデルとして, メカニクスにおいてますます普及している。
しかし、ニューラルネットワークの大きな欠点は、多くのパラメータが解釈と説明を困難にしていることである。
したがって、ニューラルネットワークはしばしばブラックボックスとしてラベル付けされ、その結果はしばしば人間の解釈を損なう。
メカニクスにおいて、物理インフォームドニューラルネットワークの新しい活発な分野は、機械的知識に基づいてディープニューラルネットワークを設計することによって、この欠点を緩和しようとする。
これを用いることで、機械的な仮定が説明できるため、より深く複雑なニューラルネットワークが実現可能になる。
しかし、ニューラルネットワークパラメータの内部推論と説明は謎のままである。
物理学を応用したアプローチと相補的に、機械データにトレーニングされたニューラルネットワークを後方から説明する物理計算アプローチへの第一歩を提案する。
この説明可能な人工知能アプローチは、ニューラルネットワークのブラックボックスとその高次元表現の解明を目的としている。
そこで主成分分析は、rnnの細胞状態における分散表現を分離し、既知の機能と基本機能の比較を可能にする。
この新しいアプローチは、最高のニューラルネットワークアーキテクチャとトレーニングパラメータを識別する、体系的なハイパーパラメータ検索戦略によって支持されている。
基本構成モデル (超弾性, エラスト塑性, 粘弾性) に関する3つの事例研究の結果, 提案手法は, 新しい材料を特徴付ける数値的および解析的閉形式解の同定に有効であることが示唆された。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - An Analysis of Physics-Informed Neural Networks [0.0]
我々は物理システム – 物理インフォームドニューラルネットワーク – に対する解を近似する新しいアプローチを提案する。
人工ニューラルネットワークの概念を導入し、目的関数を定義し、最適化戦略について議論する。
偏微分方程式は、問題の損失関数の制約として含まれ、ネットワークがモデリングしている物理系の力学の知識にアクセスできる。
論文 参考訳(メタデータ) (2023-03-06T04:45:53Z) - Synergistic information supports modality integration and flexible
learning in neural networks solving multiple tasks [107.8565143456161]
本稿では,様々な認知タスクを行う単純な人工ニューラルネットワークが採用する情報処理戦略について検討する。
結果は、ニューラルネットワークが複数の多様なタスクを学習するにつれて、シナジーが増加することを示している。
トレーニング中に無作為にニューロンを停止させると、ネットワークの冗長性が増加し、ロバスト性の増加に対応する。
論文 参考訳(メタデータ) (2022-10-06T15:36:27Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Gaussian Process Surrogate Models for Neural Networks [6.8304779077042515]
科学と工学において、モデリング(英: modeling)とは、内部プロセスが不透明な複雑なシステムを理解するために用いられる方法論である。
本稿では,ガウス過程を用いたニューラルネットワークの代理モデルのクラスを構築する。
提案手法は,ニューラルネットワークのスペクトルバイアスに関連する既存の現象を捕捉し,サロゲートモデルを用いて現実的な問題を解決することを実証する。
論文 参考訳(メタデータ) (2022-08-11T20:17:02Z) - Bayesian Physics-Informed Neural Networks for real-world nonlinear
dynamical systems [0.0]
ニューラルネットワーク、物理情報モデリング、ベイズ推論を組み合わせることで、データ、物理、不確実性を統合します。
本研究は,ニューラルネットワーク,ベイジアン推論,および両者の組み合わせの固有の長所と短所を明らかにする。
我々は、基礎となる概念や傾向が、より複雑な疾患の状況に一般化されることを期待する。
論文 参考訳(メタデータ) (2022-05-12T19:04:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Mastering high-dimensional dynamics with Hamiltonian neural networks [0.0]
マップ・ビルディング・パースペクティブは、従来のニューラルネットワークよりもハミルトニアン・ニューラル・ネットワークの優位性を解明する。
その結果、データ、次元、ニューラルネットワーク学習性能の臨界関係を明らかにした。
論文 参考訳(メタデータ) (2020-07-28T21:14:42Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。