論文の概要: Recurrent Localization Networks applied to the Lippmann-Schwinger
Equation
- arxiv url: http://arxiv.org/abs/2102.00063v1
- Date: Fri, 29 Jan 2021 20:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:20:56.707217
- Title: Recurrent Localization Networks applied to the Lippmann-Schwinger
Equation
- Title(参考訳): リップマン・シュウィンガー方程式に適用する反復局在化ネットワーク
- Authors: Conlain Kelly, Surya R. Kalidindi
- Abstract要約: 一般化Lippmann-Schwinger (L-S) 型の方程式を解くための新しい機械学習手法を提案する。
学習に基づくループアンロールの一部として、リカレント畳み込みニューラルネットワークを用いて、関心のある分野の制御方程式を反復的に解く。
本研究では, 局所的(ボクセルレベル)弾性ひずみの予測において, 優れた精度が得られる2相弾性局在問題に対する学習手法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The bulk of computational approaches for modeling physical systems in
materials science derive from either analytical (i.e. physics based) or
data-driven (i.e. machine-learning based) origins. In order to combine the
strengths of these two approaches, we advance a novel machine learning approach
for solving equations of the generalized Lippmann-Schwinger (L-S) type. In this
paradigm, a given problem is converted into an equivalent L-S equation and
solved as an optimization problem, where the optimization procedure is
calibrated to the problem at hand. As part of a learning-based loop unrolling,
we use a recurrent convolutional neural network to iteratively solve the
governing equations for a field of interest. This architecture leverages the
generalizability and computational efficiency of machine learning approaches,
but also permits a physics-based interpretation. We demonstrate our learning
approach on the two-phase elastic localization problem, where it achieves
excellent accuracy on the predictions of the local (i.e., voxel-level) elastic
strains. Since numerous governing equations can be converted into an equivalent
L-S form, the proposed architecture has potential applications across a range
of multiscale materials phenomena.
- Abstract(参考訳): 物質科学における物理系をモデル化するための計算手法の大部分は、分析的(すなわち)に由来する。
物理に基づく)またはデータ駆動(すなわち)
機械学習に基づく)起源。
これら2つのアプローチの強みを組み合わせるために,一般化リップマン・シュウィンガー型(l-s)の方程式を解くための新しい機械学習手法を考案する。
このパラダイムでは、与えられた問題を等価なL-S方程式に変換し、最適化問題として解決する。
学習に基づくループアンロールの一部として、リカレント畳み込みニューラルネットワークを用いて、関心のある分野の制御方程式を反復的に解く。
このアーキテクチャは、機械学習アプローチの一般化性と計算効率を活用するが、物理に基づく解釈も可能である。
本研究では, 局所的(ボクセルレベル)弾性ひずみの予測において, 優れた精度が得られる2相弾性局在問題に対する学習手法を示す。
多数の支配方程式を等価なL-S形式に変換することができるため、提案アーキテクチャは多スケールの物質現象にまたがって潜在的に応用できる。
関連論文リスト
- LLM4ED: Large Language Models for Automatic Equation Discovery [0.8644909837301149]
我々は、自然言語に基づくプロンプトを利用して、データから支配方程式を自動的にマイニングする大規模言語モデルをガイドする新しいフレームワークを導入する。
具体的には、まずLLMの生成能力を利用して、文字列形式で様々な方程式を生成し、次に観測に基づいて生成された方程式を評価する。
実験は偏微分方程式と常微分方程式の両方で広範囲に行われる。
論文 参考訳(メタデータ) (2024-05-13T14:03:49Z) - Self-Adaptive Physics-Informed Quantum Machine Learning for Solving Differential Equations [0.0]
チェビシェフは、古典的および量子的ニューラルネットワークが微分方程式を解くための効率的なツールとして有望であることを示した。
我々は、このフレームワークを様々な問題に対して量子機械学習環境に適応し、一般化する。
その結果,量子デバイス上での微分方程式の短期的評価に対する有望なアプローチが示唆された。
論文 参考訳(メタデータ) (2023-12-14T18:46:35Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Mixed formulation of physics-informed neural networks for
thermo-mechanically coupled systems and heterogeneous domains [0.0]
物理インフォームドニューラルネットワーク(PINN)は境界値問題を解決するための新しいツールである。
近年の研究では、多くの工学的問題に対して損失関数を設計する際には、一階微分を使い、強い形式と弱い形式の方程式を組み合わせることにより、はるかに精度が向上することが示されている。
本研究では,多物理問題,特に定常熱力学的に結合した方程式系を解くために混合定式化を適用することを提案する。
論文 参考訳(メタデータ) (2023-02-09T21:56:59Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Partial Differential Equations is All You Need for Generating Neural Architectures -- A Theory for Physical Artificial Intelligence Systems [40.20472268839781]
我々は、統計物理学における反応拡散方程式、量子力学におけるシュル・オーディンガー方程式、同軸光学におけるヘルムホルツ方程式を一般化する。
数値解を求めるためにNPDEを離散化するために有限差分法を用いる。
多層パーセプトロン、畳み込みニューラルネットワーク、リカレントニューラルネットワークなど、ディープニューラルネットワークアーキテクチャの基本構築ブロックが生成される。
論文 参考訳(メタデータ) (2021-03-10T00:05:46Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Physics Informed Deep Learning for Transport in Porous Media. Buckley
Leverett Problem [0.0]
貯水池モデリングのためのハイブリッド物理に基づく機械学習手法を提案する。
この手法は、物理に基づく正則化を伴う一連の深い敵対的ニューラルネットワークアーキテクチャに依存している。
提案手法は,物理知識を機械学習アルゴリズムに応用するためのシンプルでエレガントな手法である。
論文 参考訳(メタデータ) (2020-01-15T08:20:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。