論文の概要: Physics-Informed Neuro-Evolution (PINE): A Survey and Prospects
- arxiv url: http://arxiv.org/abs/2501.06572v1
- Date: Sat, 11 Jan 2025 15:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:29:15.926560
- Title: Physics-Informed Neuro-Evolution (PINE): A Survey and Prospects
- Title(参考訳): 物理インフォームド・ニューロ進化(PINE)の展望と展望
- Authors: Jian Cheng Wong, Abhishek Gupta, Chin Chun Ooi, Pao-Hsiung Chiu, Jiao Liu, Yew-Soon Ong,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、数学的に表現可能な自然法則をそれらのトレーニング損失関数に注入する。
PINNは、データリミットにおける純粋にデータ駆動モデルよりも利点がある。
本稿では,モデル最適化と一般化の観点から初めてPINNについて検討する。
- 参考スコア(独自算出の注目度): 23.92936460045325
- License:
- Abstract: Deep learning models trained on finite data lack a complete understanding of the physical world. On the other hand, physics-informed neural networks (PINNs) are infused with such knowledge through the incorporation of mathematically expressible laws of nature into their training loss function. By complying with physical laws, PINNs provide advantages over purely data-driven models in limited-data regimes. This feature has propelled them to the forefront of scientific machine learning, a domain characterized by scarce and costly data. However, the vision of accurate physics-informed learning comes with significant challenges. This review examines PINNs for the first time in terms of model optimization and generalization, shedding light on the need for new algorithmic advances to overcome issues pertaining to the training speed, precision, and generalizability of today's PINN models. Of particular interest are the gradient-free methods of neuroevolution for optimizing the uniquely complex loss landscapes arising in PINN training. Methods synergizing gradient descent and neuroevolution for discovering bespoke neural architectures and balancing multiple conflicting terms in physics-informed learning objectives are positioned as important avenues for future research. Yet another exciting track is to cast neuroevolution as a meta-learner of generalizable PINN models.
- Abstract(参考訳): 有限データで訓練されたディープラーニングモデルは、物理世界を完全に理解していない。
一方、物理インフォームドニューラルネットワーク(PINN)は、数学的に表現可能な自然法則を学習損失関数に組み込むことによって、そのような知識を注入する。
物理法則に従うことにより、PINNは、限られたデータ体制における純粋にデータ駆動モデルよりも有利である。
この機能は、少ないデータと高価なデータによって特徴付けられる分野である科学的な機械学習の最前線に彼らを押し付けている。
しかし、物理インフォームドラーニングの正確なビジョンには大きな課題が伴う。
本稿では、モデル最適化と一般化の観点から初めてPINNを検証し、今日のPINNモデルのトレーニング速度、精度、一般化性に関する問題を克服するために、新しいアルゴリズムの進歩の必要性に光を当てる。
特に興味深いのは、PINNトレーニングで生じる独特の複雑な損失景観を最適化するための、神経進化の勾配のない方法である。
物理インフォームド・ラーニングの目的に相反する複数の用語のバランスをとるために、勾配降下と神経進化を相乗化する方法は、将来の研究にとって重要な道として位置づけられている。
しかし、もう1つのエキサイティングなトラックは、一般化可能なPINNモデルのメタレナーとして神経進化を流すことである。
関連論文リスト
- Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - The Baldwin Effect in Advancing Generalizability of Physics-Informed Neural Networks [22.57730294475146]
物理インフォームドニューラルネットワーク(PINN)は、科学機械学習の最前線にある。
PINNは1つの物理タスクのために訓練されることが多く、新しいタスクごとに計算的に高価な再訓練を必要とする。
本稿では,ボールドウィン進化の枠組みを通じて,PINNの一般化可能性を高めるための先駆的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-06T02:31:12Z) - Neuroevolution of Physics-Informed Neural Nets: Benchmark Problems and
Comparative Results [25.12291688711645]
物理インフォームドニューラルネットワーク(PINN)は、最近の進歩の最前線にある重要な技術の一つである。
PINNのユニークな損失の定式化は、勾配降下に寄与しない高い複雑さと頑丈さをもたらす。
優れたグローバル検索能力を持つ神経進化アルゴリズムは、PINNにとってより良い選択であるかもしれない。
論文 参考訳(メタデータ) (2022-12-15T05:54:16Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Scalable algorithms for physics-informed neural and graph networks [0.6882042556551611]
物理インフォームド機械学習(PIML)は、複雑な物理的および生物学的システムをシミュレートするための有望な新しいアプローチとして登場した。
PIMLでは、物理法則を適用し、時空領域のランダムな点で評価することで得られる追加情報から、そのようなネットワークを訓練することができる。
本稿では、主にフィードフォワードニューラルネットワークと自動微分に基づく物理情報ニューラルネットワーク(PINN)を用いて、物理を機械学習に組み込む一般的なトレンドについて概説する。
論文 参考訳(メタデータ) (2022-05-16T15:46:11Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。