論文の概要: Structure-Preserving Physics-Informed Neural Networks With Energy or
Lyapunov Structure
- arxiv url: http://arxiv.org/abs/2401.04986v1
- Date: Wed, 10 Jan 2024 08:02:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:19:37.753317
- Title: Structure-Preserving Physics-Informed Neural Networks With Energy or
Lyapunov Structure
- Title(参考訳): エネルギーあるいはリアプノフ構造を持つ構造保存物理型ニューラルネットワーク
- Authors: Haoyu Chu, Yuto Miyatake, Wenjun Cui, Shikui Wei and Daisuke Furihata
- Abstract要約: 本稿では,構造保存型PINNを提案し,その性能を向上し,下流タスクへの適用範囲を広げる。
構造保存型PINNを用いたロバスト画像認識のためのフレームワークを提案する。
実験により,提案手法は偏微分方程式に対するPINNの数値精度を向上することを示した。
- 参考スコア(独自算出の注目度): 9.571966961251347
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, there has been growing interest in using physics-informed neural
networks (PINNs) to solve differential equations. However, the preservation of
structure, such as energy and stability, in a suitable manner has yet to be
established. This limitation could be a potential reason why the learning
process for PINNs is not always efficient and the numerical results may suggest
nonphysical behavior. Besides, there is little research on their applications
on downstream tasks. To address these issues, we propose structure-preserving
PINNs to improve their performance and broaden their applications for
downstream tasks. Firstly, by leveraging prior knowledge about the physical
system, a structure-preserving loss function is designed to assist the PINN in
learning the underlying structure. Secondly, a framework that utilizes
structure-preserving PINN for robust image recognition is proposed. Here,
preserving the Lyapunov structure of the underlying system ensures the
stability of the system. Experimental results demonstrate that the proposed
method improves the numerical accuracy of PINNs for partial differential
equations. Furthermore, the robustness of the model against adversarial
perturbations in image data is enhanced.
- Abstract(参考訳): 近年,微分方程式の解法として物理インフォームドニューラルネットワーク(PINN)への関心が高まっている。
しかし、エネルギーや安定性などの構造を適切な方法で保存することは、まだ確立されていない。
この制限は、PINNの学習プロセスが必ずしも効率的ではない可能性があり、数値的な結果は非物理的挙動を示唆する可能性がある。
さらに、ダウンストリームタスクのアプリケーションに関する研究はほとんどありません。
これらの課題に対処するため,構造保存型PINNを提案する。
第一に, 物理系の事前知識を活用し, 構造保存損失関数を基礎構造学習におけるピン支援として設計する。
次に, 構造保存型PINNを用いたロバスト画像認識手法を提案する。
ここで、基礎系のリャプノフ構造を保存することはシステムの安定性を保証する。
実験により, 偏微分方程式に対するピンの数値精度が向上することを示した。
さらに、画像データの対向的摂動に対するモデルの堅牢性を高める。
関連論文リスト
- Stable Weight Updating: A Key to Reliable PDE Solutions Using Deep Learning [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)の安定性と精度の向上を目的とした,新しい残差ベースアーキテクチャを提案する。
このアーキテクチャは、残りの接続を組み込むことで従来のニューラルネットワークを強化し、よりスムーズなウェイト更新を可能にし、バックプロパゲーション効率を向上させる。
特にSquared Residual Networkは、従来のニューラルネットワークと比較して安定性と精度の向上を実現し、堅牢なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-10T05:20:43Z) - Densely Multiplied Physics Informed Neural Networks [1.8554335256160261]
物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式(PDE)を扱う大きな可能性を示している
本稿では,PINNの性能向上のためにニューラルネットワークアーキテクチャを改良する。
本稿では,隠れたレイヤの出力と隠れたレイヤの出力とを乗算する,密乗型PINN(DM-PINN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:45:31Z) - Enriched Physics-informed Neural Networks for Dynamic
Poisson-Nernst-Planck Systems [0.8192907805418583]
本稿では、動的Poisson-Nernst-Planck(PNP)方程式を解くために、メッシュレス深層学習アルゴリズム、EPINN(enriched Physics-informed Neural Network)を提案する。
EPINNは、従来の物理インフォームドニューラルネットワークを基盤フレームワークとして、損失関数のバランスをとるために適応的な損失重みを追加する。
数値計算の結果, 結合された非線形系の解法において, 従来の数値法よりも適用性が高いことがわかった。
論文 参考訳(メタデータ) (2024-02-01T02:57:07Z) - PINNsFormer: A Transformer-Based Framework For Physics-Informed Neural Networks [22.39904196850583]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の数値解を近似するための有望なディープラーニングフレームワークとして登場した。
我々は,この制限に対処するために,新しいTransformerベースのフレームワークであるPINNsFormerを紹介した。
PINNsFormerは、PINNの障害モードや高次元PDEなど、様々なシナリオにおいて優れた一般化能力と精度を実現する。
論文 参考訳(メタデータ) (2023-07-21T18:06:27Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Revisiting PINNs: Generative Adversarial Physics-informed Neural
Networks and Point-weighting Method [70.19159220248805]
物理インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)を数値的に解くためのディープラーニングフレームワークを提供する
本稿では,GA機構とPINNの構造を統合したGA-PINNを提案する。
本稿では,Adaboost法の重み付け戦略からヒントを得て,PINNのトレーニング効率を向上させるためのPW法を提案する。
論文 参考訳(メタデータ) (2022-05-18T06:50:44Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。