論文の概要: Physical Data Embedding for Memory Efficient AI
- arxiv url: http://arxiv.org/abs/2407.14504v3
- Date: Fri, 18 Apr 2025 00:29:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 23:35:58.346702
- Title: Physical Data Embedding for Memory Efficient AI
- Title(参考訳): メモリ効率の良いAIのための物理データ埋め込み
- Authors: Callen MacPhee, Yiming Zhou, Bahram Jalali,
- Abstract要約: 本稿では,物理のマスター方程式を,バックプロパゲーションによってトレーニングされた多層ネットワークに変換するアプローチを提案する。
結果として得られる汎用モデルは、基盤となる物理システムの特性にデータを効果的にエンコードする。
特に、トレーニングされた"Nonlinear Schr"odinger Network"は解釈可能であり、すべてのパラメータは物理的意味を持つ。
- 参考スコア(独自算出の注目度): 0.9012198585960439
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) have achieved exceptional performance across various fields by learning complex, nonlinear mappings from large-scale datasets. However, they face challenges such as high memory requirements and computational costs with limited interpretability. This paper introduces an approach where master equations of physics are converted into multilayered networks that are trained via backpropagation. The resulting general-purpose model effectively encodes data in the properties of the underlying physical system. In contrast to existing methods wherein a trained neural network is used as a computationally efficient alternative for solving physical equations, our approach directly treats physics equations as trainable models. We demonstrate this physical embedding concept with the Nonlinear Schr\"odinger Equation (NLSE), which acts as trainable architecture for learning complex patterns including nonlinear mappings and memory effects from data. The network embeds data representation in orders of magnitude fewer parameters than conventional neural networks when tested on time series data. Notably, the trained "Nonlinear Schr\"odinger Network" is interpretable, with all parameters having physical meanings. This interpretability offers insight into the underlying dynamics of the system that produced the data. The proposed method of replacing traditional DNN feature learning architectures with physical equations is also extended to the Gross-Pitaevskii Equation, demonstrating the broad applicability of the framework to other master equations of physics. Among our results, an ablation study quantifies the relative importance of physical terms such as dispersion, nonlinearity, and potential energy for classification accuracy. We also outline the limitations of this approach as it relates to generalizability.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、大規模データセットから複雑な非線形マッピングを学習することで、さまざまな分野において例外的なパフォーマンスを実現している。
しかし、高いメモリ要求や解釈可能性の制限のある計算コストといった課題に直面している。
本稿では,物理のマスター方程式を,バックプロパゲーションによってトレーニングされた多層ネットワークに変換するアプローチを提案する。
結果として得られる汎用モデルは、基盤となる物理システムの特性にデータを効果的にエンコードする。
トレーニングされたニューラルネットワークを物理方程式を解くための計算効率の良い代替手段として利用する既存の手法とは対照的に,本手法は物理方程式を直接訓練可能なモデルとして扱う。
非線形写像やデータからのメモリ効果を含む複雑なパターンを学習するためのトレーニング可能なアーキテクチャとして機能する非線形シュリンガー方程式(NLSE)を用いて、この物理埋め込みの概念を実証する。このネットワークは、時系列データ上でテストされた場合、従来のニューラルネットワークよりも桁違いに少ないパラメータでデータ表現を埋め込む。特に、トレーニングされた「非線形シュリンガーネットワーク」は、物理的意味を持つ全てのパラメータで解釈可能である。
この解釈可能性によって、データを生成するシステムの基盤となるダイナミクスに関する洞察が得られる。
また,従来のDNN特徴学習アーキテクチャを物理方程式に置き換える手法がGross-Pitaevskii方程式にも拡張され,他の物理のマスター方程式へのフレームワークの適用性を示す。
以上の結果の中から, 分散, 非線形性, ポテンシャルエネルギーといった物理項の相対的重要性を, 分類精度において定量化した。
また、一般化可能性に関するこのアプローチの限界についても概説する。
関連論文リスト
- High-fidelity Multiphysics Modelling for Rapid Predictions Using Physics-informed Parallel Neural Operator [17.85837423448985]
非線形および強く結合した偏微分方程式(PDE)によって支配される複雑な多物理系をモデル化することは、計算科学と工学の基盤となる。
本稿では、スケーラブルで教師なしの学習フレームワークであるPIPNO(Physical-informed parallel neural operator)を提案する。
PIPNOは、地球工学、物質科学、電磁気学、量子力学、流体力学など、様々な物理学における非線形作用素のマッピングを効率的に取得する。
論文 参考訳(メタデータ) (2025-02-26T20:29:41Z) - Physics-informed nonlinear vector autoregressive models for the prediction of dynamical systems [0.36248657646376703]
我々は、通常の微分方程式(ODE)を解くために非線形ベクトル自己回帰(NVAR)と呼ばれるモデルの1つのクラスに焦点を当てる。
数値積分と物理インフォームドニューラルネットワークとの接続により、物理インフォームドN VARを明示的に導出する。
N VARとpiN VARは学習パラメータを完全に共有するため、我々は2つのモデルを共同で訓練するための拡張手順を提案する。
本研究では,損傷のないバネ,ロトカ・ボルテラ捕食者・プレディ非線形モデル,カオスロレンツシステムなど,様々なODEシステムに対する解を予測するためのpiN VARモデルの有効性を評価する。
論文 参考訳(メタデータ) (2024-07-25T14:10:42Z) - Physics-Informed Machine Learning for Seismic Response Prediction OF Nonlinear Steel Moment Resisting Frame Structures [6.483318568088176]
PiML法は、非線形構造の地震応答をモデル化するために、科学的原理と物理法則をディープニューラルネットワークに統合する。
運動方程式を操作することは、システムの非線形性を学習し、物理的に解釈可能な結果の中で解を閉じ込めるのに役立つ。
結果、既存の物理誘導LSTMモデルよりも複雑なデータを処理し、他の非物理データ駆動ネットワークより優れている。
論文 参考訳(メタデータ) (2024-02-28T02:16:03Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - SimPINNs: Simulation-Driven Physics-Informed Neural Networks for
Enhanced Performance in Nonlinear Inverse Problems [0.0]
本稿では,ディープラーニング技術を活用した逆問題の解法を提案する。
目的は、観測データに基づいて物理システムを管理する未知のパラメータを推論することである。
論文 参考訳(メタデータ) (2023-09-27T06:34:55Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Physics-aware deep learning framework for linear elasticity [0.0]
本稿では,線形連続弾性問題に対する効率的で堅牢なデータ駆動型ディープラーニング(DL)計算フレームワークを提案する。
フィールド変数の正確な表現のために,多目的損失関数を提案する。
弾性に対するAirimaty解やKirchhoff-Loveプレート問題を含むいくつかのベンチマーク問題を解く。
論文 参考訳(メタデータ) (2023-02-19T20:33:32Z) - Human Trajectory Prediction via Neural Social Physics [63.62824628085961]
軌道予測は多くの分野において広く研究され、多くのモデルベースおよびモデルフリーな手法が研究されている。
ニューラル微分方程式モデルに基づく新しい手法を提案する。
我々の新しいモデル(ニューラル社会物理学またはNSP)は、学習可能なパラメータを持つ明示的な物理モデルを使用するディープニューラルネットワークである。
論文 参考訳(メタデータ) (2022-07-21T12:11:18Z) - Physics guided neural networks for modelling of non-linear dynamics [0.0]
この研究は、ディープニューラルネットワークの中間層に部分的に既知の情報を注入することで、モデルの精度を向上し、モデルの不確実性を低減し、トレーニング中に収束性を向上させることを実証する。
これらの物理誘導ニューラルネットワークの価値は、非線形系理論においてよく知られた5つの方程式で表される様々な非線形力学系の力学を学習することによって証明されている。
論文 参考訳(メタデータ) (2022-05-13T19:06:36Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - DynNet: Physics-based neural architecture design for linear and
nonlinear structural response modeling and prediction [2.572404739180802]
本研究では,線形および非線形な多自由度系の力学を学習できる物理に基づくリカレントニューラルネットワークモデルを提案する。
このモデルは、変位、速度、加速度、内部力を含む完全な応答のセットを推定することができる。
論文 参考訳(メタデータ) (2020-07-03T17:05:35Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Learning Queuing Networks by Recurrent Neural Networks [0.0]
データから性能モデルを導出する機械学習手法を提案する。
我々は、通常の微分方程式のコンパクトな系の観点から、それらの平均力学の決定論的近似を利用する。
これにより、ニューラルネットワークの解釈可能な構造が可能になり、システム測定からトレーニングしてホワイトボックスパラメータ化モデルを生成することができる。
論文 参考訳(メタデータ) (2020-02-25T10:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。