論文の概要: Loss Landscape Engineering via Data Regulation on PINNs
- arxiv url: http://arxiv.org/abs/2205.07843v1
- Date: Mon, 16 May 2022 17:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 18:18:51.663042
- Title: Loss Landscape Engineering via Data Regulation on PINNs
- Title(参考訳): PINNのデータレギュレーションによる景観工学の損失
- Authors: Vignesh Gopakumar, Stanislas Pamela, Debasmita Samaddar
- Abstract要約: PINNがソリューションにどのように収束するかを示す。
PINNのデータ規制は収束に必要な最適化を容易にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks have shown unique utility in parameterising
the solution of a well-defined partial differential equation using automatic
differentiation and residual losses. Though they provide theoretical guarantees
of convergence, in practice the required training regimes tend to be exacting
and demanding. Through the course of this paper, we take a deep dive into
understanding the loss landscapes associated with a PINN and how that offers
some insight as to why PINNs are fundamentally hard to optimise for. We
demonstrate how PINNs can be forced to converge better towards the solution, by
way of feeding in sparse or coarse data as a regulator. The data regulates and
morphs the topology of the loss landscape associated with the PINN to make it
easily traversable for the minimiser. Data regulation of PINNs helps ease the
optimisation required for convergence by invoking a hybrid
unsupervised-supervised training approach, where the labelled data pushes the
network towards the vicinity of the solution, and the unlabelled regime
fine-tunes it to the solution.
- Abstract(参考訳): 物理インフォームドニューラルネットワークは、自動微分と残留損失を用いたよく定義された偏微分方程式の解のパラメータ化において、ユニークな有用性を示している。
理論上は収束の保証を提供するが、実際には必要な訓練体制は正確で要求される傾向にある。
本稿では,PINNに関連する損失状況の理解と,PINNの最適化が根本的に困難である理由について考察する。
我々は、スパースデータや粗いデータをレギュレータとして供給することで、PINNがソリューションに向かってよりよく収束することを実証する。
データは、PINNに関連するロスランドスケープのトポロジーを規制し、変形させ、ミニミザーにとって容易にトラバースできるようにする。
PINNのデータレギュレーションは、ラベリングされたデータがソリューションの近傍にネットワークをプッシュし、それを解に微調整するハイブリッドな教師なしトレーニングアプローチを呼び出すことにより、収束に必要な最適化を容易にする。
関連論文リスト
- Parametric Encoding with Attention and Convolution Mitigate Spectral Bias of Neural Partial Differential Equation Solvers [0.0]
PGCAN(Parametric Grid Convolutional Attention Networks)は偏微分方程式(PDE)の解法である。
PGCANは、DNNデコーダを介して出力に接続されたグリッドベースのエンコーダで入力空間をパラメータ化する。
我々のエンコーダは、局所的な学習能力を提供し、畳み込みレイヤを使用して、境界からドメインの内部への情報の伝播速度を過度に調整し改善する。
論文 参考訳(メタデータ) (2024-03-22T23:56:40Z) - Learning solutions of parametric Navier-Stokes with physics-informed
neural networks [0.3989223013441816]
パラメトリックナビエ・ストークス方程式(NSE)の解関数の学習にPIN(Palformed-Informed Neural Networks)を利用する。
パラメータのパラメータを座標とともにPINの入力とみなし、パラメータのインスタンスに対するパラメトリックPDESの数値解に基づいてPINを訓練する。
提案手法は, 解関数を学習するPINNモデルを最適化し, 流量予測が質量・運動量の保存則と一致していることを確認する。
論文 参考訳(メタデータ) (2024-02-05T16:19:53Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Failure-informed adaptive sampling for PINNs [5.723850818203907]
物理学インフォームドニューラルネットワーク(PINN)は、幅広い領域でPDEを解決する効果的な手法として登場した。
しかし、最近の研究では、異なるサンプリング手順でPINNの性能が劇的に変化することが示されている。
本稿では,信頼度分析の視点から,故障インフォームドPINNという適応的手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T13:34:41Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Resource Allocation via Graph Neural Networks in Free Space Optical
Fronthaul Networks [119.81868223344173]
本稿では,自由空間光(FSO)フロントホールネットワークにおける最適資源割り当てについて検討する。
我々は、FSOネットワーク構造を利用するために、ポリシーパラメータ化のためのグラフニューラルネットワーク(GNN)を検討する。
本アルゴリズムは,システムモデルに関する知識が不要なモデルフリーでGNNを訓練するために開発された。
論文 参考訳(メタデータ) (2020-06-26T14:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。