論文の概要: Feature-adjacent multi-fidelity physics-informed machine learning for
partial differential equations
- arxiv url: http://arxiv.org/abs/2303.11577v3
- Date: Mon, 27 Mar 2023 05:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 23:29:50.263927
- Title: Feature-adjacent multi-fidelity physics-informed machine learning for
partial differential equations
- Title(参考訳): 偏微分方程式に対する特徴適応多要素物理インフォームド機械学習
- Authors: Wenqian Chen, Panos Stinis
- Abstract要約: 物理インフォームドニューラルネットワークは偏微分方程式の解法として登場した。
複雑な問題に対して、そのようなネットワークのトレーニングには高忠実度データが必要である。
本稿では,低忠実度および高忠実度ソリューションで共有される特徴空間に基づく,新しい多忠実度アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.1713291434132985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-informed neural networks have emerged as an alternative method for
solving partial differential equations. However, for complex problems, the
training of such networks can still require high-fidelity data which can be
expensive to generate. To reduce or even eliminate the dependency on
high-fidelity data, we propose a novel multi-fidelity architecture which is
based on a feature space shared by the low- and high-fidelity solutions. In the
feature space, the projections of the low-fidelity and high-fidelity solutions
are adjacent by constraining their relative distance. The feature space is
represented with an encoder and its mapping to the original solution space is
effected through a decoder. The proposed multi-fidelity approach is validated
on forward and inverse problems for steady and unsteady problems described by
partial differential equations.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは偏微分方程式の解法として登場した。
しかし、複雑な問題に対して、そのようなネットワークのトレーニングには高忠実度データが必要である。
高忠実度データへの依存を低減または排除するために,低忠実度および高忠実度ソリューションで共有される特徴空間に基づく新しい多忠実度アーキテクチャを提案する。
特徴空間では、その相対距離を制限して、低忠実度および高忠実度解の射影が隣接している。
特徴空間はエンコーダで表現され、元の解空間へのマッピングはデコーダを介して実行される。
偏微分方程式によって記述される定常および非定常問題の前方および逆問題に対して,提案手法が検証されている。
関連論文リスト
- DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - ConDiff: A Challenging Dataset for Neural Solvers of Partial Differential Equations [42.69799418639716]
本稿では,科学的機械学習のための新しいデータセットであるConDiffを紹介する。
ConDiffは、パラメトリック偏微分方程式(PDE)の多くの応用における基本的な問題である、様々な係数を持つ拡散方程式に焦点を当てている。
この種の問題は、学術的な関心事だけでなく、様々な環境・産業問題の記述の基礎にもなっている。
このようにして、ConDiffは、完全な合成と使いやすさを維持しながら、現実世界の問題とのギャップを短くする。
論文 参考訳(メタデータ) (2024-06-07T07:35:14Z) - Introducing a microstructure-embedded autoencoder approach for reconstructing high-resolution solution field data from a reduced parametric space [0.0]
我々は,パラメトリック空間情報を標準オートエンコーダアーキテクチャに組み込むことで,低忠実度解写像を高忠実度に変換する新しい多忠実深層学習手法を開発した。
パラメトリック空間情報の統合により、低忠実度から高忠実度解を効果的に予測するためのトレーニングデータの必要性が大幅に低減される。
論文 参考訳(メタデータ) (2024-05-03T10:00:36Z) - Pretraining Codomain Attention Neural Operators for Solving Multiphysics PDEs [85.40198664108624]
PDEを用いた多物理問題の解法として,コドメイン注意ニューラル演算子(CoDA-NO)を提案する。
CoDA-NOはコドメインやチャネル空間に沿った機能をトークン化し、複数のPDEシステムの自己教師付き学習や事前訓練を可能にする。
CoDA-NOは、データ制限のある複雑な下流タスクにおいて、既存のメソッドを36%以上上回ります。
論文 参考訳(メタデータ) (2024-03-19T08:56:20Z) - Physics-Informed Generator-Encoder Adversarial Networks with Latent
Space Matching for Stochastic Differential Equations [14.999611448900822]
微分方程式における前方・逆・混合問題に対処するために,新しい物理情報ニューラルネットワークのクラスを提案する。
我々のモデルは、ジェネレータとエンコーダの2つのキーコンポーネントで構成され、どちらも勾配降下によって交互に更新される。
従来の手法とは対照的に、より低次元の潜在特徴空間内で機能する間接マッチングを用いる。
論文 参考訳(メタデータ) (2023-11-03T04:29:49Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - Physics-aware deep learning framework for linear elasticity [0.0]
本稿では,線形連続弾性問題に対する効率的で堅牢なデータ駆動型ディープラーニング(DL)計算フレームワークを提案する。
フィールド変数の正確な表現のために,多目的損失関数を提案する。
弾性に対するAirimaty解やKirchhoff-Loveプレート問題を含むいくつかのベンチマーク問題を解く。
論文 参考訳(メタデータ) (2023-02-19T20:33:32Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Multi-Resource Allocation for On-Device Distributed Federated Learning
Systems [79.02994855744848]
本研究は,デバイス上の分散フェデレーション学習(FL)システムにおいて,レイテンシとエネルギー消費の重み付け和を最小化する分散マルチリソース割り当て方式を提案する。
システム内の各モバイルデバイスは、指定された領域内でモデルトレーニングプロセスを実行し、それぞれパラメータの導出とアップロードを行うための計算と通信資源を割り当てる。
論文 参考訳(メタデータ) (2022-11-01T14:16:05Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。