論文の概要: On the Application of Data-Driven Deep Neural Networks in Linear and
Nonlinear Structural Dynamics
- arxiv url: http://arxiv.org/abs/2111.02784v1
- Date: Wed, 3 Nov 2021 13:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-06 03:56:45.895678
- Title: On the Application of Data-Driven Deep Neural Networks in Linear and
Nonlinear Structural Dynamics
- Title(参考訳): データ駆動型ディープニューラルネットワークの線形および非線形構造ダイナミクスへの応用について
- Authors: Nan Feng, Guodong Zhang and Kapil Khandelwal
- Abstract要約: 線形および非線形構造力学系のサロゲートとしてディープニューラルネットワーク(DNN)モデルを用いる。
焦点は、完全に接続された、疎結合で、畳み込みネットワーク層を使った効率的なネットワークアーキテクチャの開発である。
提案したDNNは,高調波負荷下での線形および非線形動的応答の予測に有効かつ正確なサロゲートとして利用できることを示す。
- 参考スコア(独自算出の注目度): 28.979990729816638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of deep neural network (DNN) models as surrogates for linear and
nonlinear structural dynamical systems is explored. The goal is to develop DNN
based surrogates to predict structural response, i.e., displacements and
accelerations, for given input (harmonic) excitations. In particular, the focus
is on the development of efficient network architectures using fully-connected,
sparsely-connected, and convolutional network layers, and on the corresponding
training strategies that can provide a balance between the overall network
complexity and prediction accuracy in the target dataspaces. For linear
dynamics, sparsity patterns of the weight matrix in the network layers are used
to construct convolutional DNNs with sparse layers. For nonlinear dynamics, it
is shown that sparsity in network layers is lost, and efficient DNNs
architectures with fully-connected and convolutional network layers are
explored. A transfer learning strategy is also introduced to successfully train
the proposed DNNs, and various loading factors that influence the network
architectures are studied. It is shown that the proposed DNNs can be used as
effective and accurate surrogates for predicting linear and nonlinear dynamical
responses under harmonic loadings.
- Abstract(参考訳): 線形および非線形構造力学系のサロゲートとしてディープニューラルネットワーク(DNN)モデルを用いる。
目標は、入力(ハーモニック)励起に対する構造応答、すなわち変位と加速度を予測するdnnベースのサロゲートを開発することである。
特に、完全接続、疎結合、畳み込みネットワーク層を用いた効率的なネットワークアーキテクチャの開発と、対象とするデータ空間におけるネットワーク全体の複雑さと予測精度のバランスを提供する、対応するトレーニング戦略に重点が置かれている。
線形力学では、ネットワーク層内の重み行列の空間パターンを用いて、スパース層を持つ畳み込みDNNを構成する。
非線形力学では,ネットワーク層内の疎結合性が失われ,ネットワーク層が完全連結で畳み込み可能な効率的なDNNアーキテクチャが探索されている。
また,提案するdnnの学習を成功させるためにトランスファー学習戦略を導入し,ネットワークアーキテクチャに影響を与える様々な負荷要因について検討した。
提案したDNNは,高調波負荷下での線形および非線形動的応答の予測に有効かつ正確なサロゲートとして利用できる。
関連論文リスト
- TDNetGen: Empowering Complex Network Resilience Prediction with Generative Augmentation of Topology and Dynamics [14.25304439234864]
本稿では,ネットワークトポロジとダイナミックスの生成的データ拡張を通じてこの問題に対処するために設計された,複雑なネットワークに対する新しいレジリエンス予測フレームワークを提案する。
3つのネットワークデータセットの実験結果から,提案するフレームワークであるTDNetGenは,最大85%~95%の精度で高い予測精度を達成可能であることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:20:31Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Towards Efficient Deep Spiking Neural Networks Construction with Spiking Activity based Pruning [17.454100169491497]
本稿では,Spking Channel Activity-based (SCA) network pruning frameworkという,畳み込みカーネルの動作レベルに基づく構造化プルーニング手法を提案する。
本手法は, 学習中の畳み込みカーネルの切断・再生によりネットワーク構造を動的に調整し, 現在の目標タスクへの適応性を高める。
論文 参考訳(メタデータ) (2024-06-03T07:44:37Z) - Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - From Alexnet to Transformers: Measuring the Non-linearity of Deep Neural Networks with Affine Optimal Transport [32.39176908225668]
本稿では,DNNの非線形性シグネチャの概念を紹介する。これはディープニューラルネットワークの非線形性を測定するための,理論上初めての音響解である。
提案した非線形署名の実用性を明らかにするための実験結果について述べる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Characterizing Learning Dynamics of Deep Neural Networks via Complex
Networks [1.0869257688521987]
複素ネットワーク理論(CNT)は、ディープニューラルネットワーク(DNN)を重み付きグラフとして表現し、それらを動的システムとして研究する。
ノード/ニューロンとレイヤ、すなわちNodes StrengthとLayers Fluctuationのメトリクスを紹介します。
本フレームワークは,学習力学のトレンドを抽出し,高精度ネットワークから低次ネットワークを分離する。
論文 参考訳(メタデータ) (2021-10-06T10:03:32Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。