論文の概要: Initialization-enhanced Physics-Informed Neural Network with Domain Decomposition (IDPINN)
- arxiv url: http://arxiv.org/abs/2406.03172v1
- Date: Wed, 5 Jun 2024 12:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 18:40:12.666458
- Title: Initialization-enhanced Physics-Informed Neural Network with Domain Decomposition (IDPINN)
- Title(参考訳): ドメイン分解(IDPINN)を用いた初期化強化物理インフォームドニューラルネットワーク
- Authors: Chenhao Si, Ming Yan,
- Abstract要約: 予測精度を向上させるために,新しい物理インフォームドニューラルネットワークフレームワークIDPINNを提案する。
我々は,いくつかの前方問題に対して数値的に評価し,IDPINNの利点を精度で実証した。
- 参考スコア(独自算出の注目度): 14.65008276932511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new physics-informed neural network framework, IDPINN, based on the enhancement of initialization and domain decomposition to improve prediction accuracy. We train a PINN using a small dataset to obtain an initial network structure, including the weighted matrix and bias, which initializes the PINN for each subdomain. Moreover, we leverage the smoothness condition on the interface to enhance the prediction performance. We numerically evaluated it on several forward problems and demonstrated the benefits of IDPINN in terms of accuracy.
- Abstract(参考訳): 本稿では,予測精度を向上させるために,初期化と領域分解の強化に基づく新しい物理インフォームドニューラルネットワークフレームワークIDPINNを提案する。
各サブドメイン毎にPINNを初期化する重み付き行列とバイアスを含む初期ネットワーク構造を得るために,小さなデータセットを用いてPINNをトレーニングする。
さらに,インターフェース上の滑らかさ条件を利用して予測性能を向上させる。
我々は,いくつかの前方問題に対して数値的に評価し,IDPINNの利点を精度で実証した。
関連論文リスト
- Parallel-in-Time Solutions with Random Projection Neural Networks [0.07282584715927627]
本稿では、常微分方程式の解法であるパラレアルの基本的な並列時間法の一つを考察し、ニューラルネットワークを粗いプロパゲータとして採用することにより拡張する。
提案アルゴリズムの収束特性を理論的に解析し,ローレンツ方程式やバーガースの方程式を含むいくつかの例に対して有効性を示す。
論文 参考訳(メタデータ) (2024-08-19T07:32:41Z) - Accelerating Full Waveform Inversion By Transfer Learning [1.0881446298284452]
フルウェーブフォーム・インバージョン (FWI) は、波動伝搬によって得られた疎測定データに基づいて材料フィールドを再構築する強力なツールである。
特定の問題に対して、ニューラルネットワーク(NN)による材料フィールドの識別は、対応する最適化問題の堅牢性と再構築品質を向上させる。
本稿では,NNベースのFWIをさらに改善するために,新しいトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T16:39:06Z) - Improved physics-informed neural network in mitigating gradient related failures [11.356695216531328]
物理インフォームドニューラルネットワーク(PINN)は、高度なデータ駆動技術で基本的な物理原理を統合する。
PINNは勾配流の剛性に悩まされ、予測能力が制限される。
本稿では,勾配関連障害を軽減するために改良されたPINNを提案する。
論文 参考訳(メタデータ) (2024-07-28T07:58:10Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Improving Parametric Neural Networks for High-Energy Physics (and
Beyond) [0.0]
本研究の目的は,現実世界の使用状況に照らして,パラメトリックニューラルネットワーク(pNN)ネットワークの理解を深めることである。
本稿では,新しいパラメータ化ニューラルネットワークアーキテクチャであるAffinePNNを提案する。
我々は、その不均衡バージョン(HEPMASS-IMB)に沿って、HEPMASSデータセット上で、我々のモデルを広範囲に評価する。
論文 参考訳(メタデータ) (2022-02-01T14:18:43Z) - Local Repair of Neural Networks Using Optimization [13.337627875398393]
トレーニング済みフィードフォワードニューラルネットワーク(NN)を修復する枠組みを提案する。
対象の入力領域に対してNNの出力に制約を課す述語の一式としてプロパティを定式化する。
本稿では,アフィン変換のバウンダリング,誤分類NNの修正,NNコントローラのインプットのバウンダリングにおけるフレームワークの適用例を示す。
論文 参考訳(メタデータ) (2021-09-28T20:52:26Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。