論文の概要: AutoPINN: When AutoML Meets Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2212.04058v1
- Date: Thu, 8 Dec 2022 03:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:59:23.558705
- Title: AutoPINN: When AutoML Meets Physics-Informed Neural Networks
- Title(参考訳): AutoPINN:AutoMLが物理インフォームドニューラルネットワークに出会ったとき
- Authors: Xinle Wu, Dalin Zhang, Miao Zhang, Chenjuan Guo, Shuai Zhao, Yi Zhang,
Huai Wang, Bin Yang
- Abstract要約: PINNは、観測可能な変数を通じて、物理的なツールで観測できないクリティカルパラメータを推定できる。
既存のPINNは手動で設計されることが多く、時間を要するため、最適以下の性能につながる可能性がある。
本稿では,AutoMLとPINNを組み合わせることで,PINNの自動設計を可能にするフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.798918516407376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-Informed Neural Networks (PINNs) have recently been proposed to solve
scientific and engineering problems, where physical laws are introduced into
neural networks as prior knowledge. With the embedded physical laws, PINNs
enable the estimation of critical parameters, which are unobservable via
physical tools, through observable variables. For example, Power Electronic
Converters (PECs) are essential building blocks for the green energy
transition. PINNs have been applied to estimate the capacitance, which is
unobservable during PEC operations, using current and voltage, which can be
observed easily during operations. The estimated capacitance facilitates
self-diagnostics of PECs. Existing PINNs are often manually designed, which is
time-consuming and may lead to suboptimal performance due to a large number of
design choices for neural network architectures and hyperparameters. In
addition, PINNs are often deployed on different physical devices, e.g., PECs,
with limited and varying resources. Therefore, it requires designing different
PINN models under different resource constraints, making it an even more
challenging task for manual design. To contend with the challenges, we propose
Automated Physics-Informed Neural Networks (AutoPINN), a framework that enables
the automated design of PINNs by combining AutoML and PINNs. Specifically, we
first tailor a search space that allows finding high-accuracy PINNs for PEC
internal parameter estimation. We then propose a resource-aware search strategy
to explore the search space to find the best PINN model under different
resource constraints. We experimentally demonstrate that AutoPINN is able to
find more accurate PINN models than human-designed, state-of-the-art PINN
models using fewer resources.
- Abstract(参考訳): 物理情報ニューラルネットワーク(PINN)は、最近、物理法則がニューラルネットワークに先行知識として導入される科学と工学の問題を解決するために提案されている。
組み込み物理法則により、PINNは、観測可能な変数を通して、物理ツールを介して観測できない臨界パラメータを推定できる。
例えば、電力電子変換器(PEC)は、グリーンエネルギー遷移に不可欠な構成要素である。
PINNは、動作中に容易に観測できる電流と電圧を用いて、PEC操作中に観測できない容量を推定するために応用されている。
推定容量は、PECの自己診断を促進する。
既存のPINNは手動で設計されることが多く、これは時間を要するため、ニューラルネットワークアーキテクチャやハイパーパラメータに対する設計選択が多数あるため、最適以下のパフォーマンスにつながる可能性がある。
さらに、PINNはPECなどの様々な物理デバイスに、限られたリソースと様々なリソースでデプロイされることが多い。
そのため、異なるリソース制約の下で異なるpinnモデルを設計する必要があるため、手動設計のさらに困難なタスクとなる。
この課題に対処するために,AutoMLとPINNを組み合わせることで,PINNの自動設計を可能にするフレームワークであるAutomated Physics-Informed Neural Networks (AutoPINN)を提案する。
具体的には,pec内部パラメータ推定のための高精度ピンの探索を可能にする探索空間を最初に調整する。
次に,検索空間を探索し,異なる資源制約下で最適なピンモデルを見つけるための資源対応探索戦略を提案する。
実験により、AutoPINNは、少ないリソースを用いて、人間設計の最先端のPINNモデルよりも正確なPINNモデルを見つけることができることを示した。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Correcting model misspecification in physics-informed neural networks
(PINNs) [2.07180164747172]
本稿では,制御方程式の発見のために,PINNにおいて不特定な物理モデルを修正するための一般的な手法を提案する。
我々は、不完全モデルと観測データとの差をモデル化するために、他のディープニューラルネットワーク(DNN)を使用します。
提案手法は, 物理化学的, 生物学的プロセスがよく理解されていない問題における支配方程式の発見に, PINNの応用を拡大すると考えられる。
論文 参考訳(メタデータ) (2023-10-16T19:25:52Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Separable PINN: Mitigating the Curse of Dimensionality in
Physics-Informed Neural Networks [6.439575695132489]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆問題の両方に新しいデータ駆動型PDEソルバとして登場した。
自動微分(AD)の計算は、PINNのトレーニングにおいて前方モードADを活用することで大幅に削減できることを示す。
我々は、より効率的な計算のために、前進モードADを容易に行える分離可能なPINN(SPINN)と呼ばれるネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T08:46:52Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Physics-Informed Neural Networks (PINNs) for Parameterized PDEs: A
Metalearning Approach [13.590496719224987]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)を識別する手段である
本稿では,モデルに依存しないメタラーニングについて調査し,PINNに適用したモデル認識メタラーニングについて考察する。
論文 参考訳(メタデータ) (2021-10-26T02:29:10Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。