論文の概要: Analytically Integratable Zero-restlength Springs for Capturing Dynamic
Modes unrepresented by Quasistatic Neural Networks
- arxiv url: http://arxiv.org/abs/2201.10122v1
- Date: Tue, 25 Jan 2022 06:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:06:15.214209
- Title: Analytically Integratable Zero-restlength Springs for Capturing Dynamic
Modes unrepresented by Quasistatic Neural Networks
- Title(参考訳): 準静的ニューラルネットワークで表現されない動的モードをキャプチャするための解析的に可積分なゼロレスト長スプリング
- Authors: Yongxu Jin, Yushan Han, Zhenglin Geng, Joseph Teran, Ronald Fedkiw
- Abstract要約: 本稿では,ニューラルネットワークを用いて,ある種の動的シミュレーションをリアルタイムにモデル化するための新しいパラダイムを提案する。
準静的ニューラルネットワーク(QNN)の推論を(リアルタイム)動的シミュレーション層で拡張する。
本研究では, 驚くほど少量の動的シミュレーションデータから, スプリングパラメータを頑健に学習できることを実証した。
- 参考スコア(独自算出の注目度): 6.601755525003559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel paradigm for modeling certain types of dynamic simulation
in real-time with the aid of neural networks. In order to significantly reduce
the requirements on data (especially time-dependent data), as well as decrease
generalization error, our approach utilizes a data-driven neural network only
to capture quasistatic information (instead of dynamic or time-dependent
information). Subsequently, we augment our quasistatic neural network (QNN)
inference with a (real-time) dynamic simulation layer. Our key insight is that
the dynamic modes lost when using a QNN approximation can be captured with a
quite simple (and decoupled) zero-restlength spring model, which can be
integrated analytically (as opposed to numerically) and thus has no time-step
stability restrictions. Additionally, we demonstrate that the spring
constitutive parameters can be robustly learned from a surprisingly small
amount of dynamic simulation data. Although we illustrate the efficacy of our
approach by considering soft-tissue dynamics on animated human bodies, the
paradigm is extensible to many different simulation frameworks.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いて,ある種の動的シミュレーションをリアルタイムにモデル化する新しいパラダイムを提案する。
データ(特に時間依存データ)の要求を大幅に低減し、一般化誤差を低減するために、我々は、データ駆動ニューラルネットワークを使用して、準静的情報(動的情報や時間依存情報の代わりに)をキャプチャする。
その後、準静的ニューラルネットワーク(QNN)の推論を(リアルタイム)動的シミュレーション層で強化する。
我々の重要な洞察は、QNN近似を用いて失われた動的モードは、解析的に(数値的には対照的に)統合することができ、したがって時間-ステップの安定性の制限がない非常に単純な(そして分離された)ゼロレストスプリングモデルでキャプチャできるということである。
さらに, 驚くほど少量の動的シミュレーションデータから, スプリング構成パラメータを頑健に学習できることを実証した。
本手法は,人体のソフトトイップダイナミクスを考慮し,その効果を示すが,そのパラダイムは多種多様なシミュレーションフレームワークに拡張可能である。
関連論文リスト
- A Neural-Network-Based Approach for Loose-Fitting Clothing [2.910739621411222]
本稿では, リアルタイム数値アルゴリズムを用いて, ゆるやかな衣服の動的モードを近似する方法を示す。
また,スキンを用いて望ましいメッシュに粗い近似を再構築する。
大量のトレーニングデータを必要とするリカレントニューラルネットワークとは対照的に、QNNはトレーニングデータを大幅に少なくする。
論文 参考訳(メタデータ) (2024-04-25T05:52:20Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Do We Need an Encoder-Decoder to Model Dynamical Systems on Networks? [18.92828441607381]
埋め込みは観察によく適合するが、同時に誤った動的挙動を持つモデルを誘導することを示す。
2つの加法的ベクトル場成分をパラメトリした単純な埋め込み自由な代替法を提案する。
論文 参考訳(メタデータ) (2023-05-20T12:41:47Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Learning Stochastic Dynamics with Statistics-Informed Neural Network [0.4297070083645049]
データからダイナミクスを学習するための、統計情報ニューラルネットワーク(SINN)という機械学習フレームワークを導入する。
本研究では,ニューラルネットワークモデルの学習機構を考案し,対象プロセスの正しい統計的挙動を再現する。
得られた低次モデルが時間的に粗い粒度データに基づいて訓練可能であることを示す。
論文 参考訳(メタデータ) (2022-02-24T18:21:01Z) - A Note on Learning Rare Events in Molecular Dynamics using LSTM and
Transformer [4.80427355202687]
近年,低次元反応座標のシミュレーションデータを用いてLSTMによるスローダイナミクスの学習に成功した。
本稿では, 言語モデル学習の性能, すなわち反応座標の次元性, 時間分解能, 状態分割の3つの重要な要因について述べる。
論文 参考訳(メタデータ) (2021-07-14T09:26:36Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。