論文の概要: Failure-informed adaptive sampling for PINNs, Part II: combining with
re-sampling and subset simulation
- arxiv url: http://arxiv.org/abs/2302.01529v1
- Date: Fri, 3 Feb 2023 04:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 17:31:47.594577
- Title: Failure-informed adaptive sampling for PINNs, Part II: combining with
re-sampling and subset simulation
- Title(参考訳): PINNの故障インフォーム適応サンプリング(第2報)再サンプリングとサブセットシミュレーションの組み合わせ
- Authors: Zhiwei Gao, Tao Tang, Liang Yan, Tao Zhou
- Abstract要約: 本稿では,FI-PINNの2つの拡張について述べる。
最初の拡張は再サンプリング技術と組み合わせることで、新しいアルゴリズムは一定のトレーニングサイズを維持することができる。
2つ目の拡張は、サブセットシミュレーションアルゴリズムを、エラーインジケータを推定するための後続モデルとして提示することである。
- 参考スコア(独自算出の注目度): 6.9476677480730125
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This is the second part of our series works on failure-informed adaptive
sampling for physic-informed neural networks (FI-PINNs). In our previous work
\cite{gao2022failure}, we have presented an adaptive sampling framework by
using the failure probability as the posterior error indicator, where the
truncated Gaussian model has been adopted for estimating the indicator. In this
work, we present two novel extensions to FI-PINNs. The first extension consist
in combining with a re-sampling technique, so that the new algorithm can
maintain a constant training size. This is achieved through a cosine-annealing,
which gradually transforms the sampling of collocation points from uniform to
adaptive via training progress. The second extension is to present the subset
simulation algorithm as the posterior model (instead of the truncated Gaussian
model) for estimating the error indicator, which can more effectively estimate
the failure probability and generate new effective training points in the
failure region. We investigate the performance of the new approach using
several challenging problems, and numerical experiments demonstrate a
significant improvement over the original algorithm.
- Abstract(参考訳): これは、フィジカルインフォームドニューラルネットワーク(FI-PINN)の故障インフォームド適応サンプリングに関するシリーズの第2部である。
先行研究である \cite{gao2022failure} では,故障確率を後方誤差指標として,停止ガウスモデルを用いた適応サンプリング手法を提案する。
本稿では,FI-PINNの2つの拡張について述べる。
最初の拡張は再サンプリング技術と組み合わせることで、新しいアルゴリズムは一定のトレーニングサイズを維持することができる。
これはcosine-annealing(コロケーションポイントのサンプリングを一様から順応へとトレーニング進行を通じて徐々に変換する)によって達成される。
第2の拡張は、エラーインジケータを推定するための後段モデルとしてサブセットシミュレーションアルゴリズムを提示することであり、エラー確率をより効果的に推定し、障害領域で新たな効果的なトレーニングポイントを生成することができる。
本稿では,いくつかの問題を用いて新しい手法の性能を検証し,数値実験により元のアルゴリズムよりも大幅に改善されたことを示す。
関連論文リスト
- A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Neural Network-Based Score Estimation in Diffusion Models: Optimization
and Generalization [12.812942188697326]
拡散モデルは、忠実さ、柔軟性、堅牢性を改善した高品質なサンプルを生成する際に、GANと競合する強力なツールとして登場した。
これらのモデルの主要な構成要素は、スコアマッチングを通じてスコア関数を学ぶことである。
様々なタスクにおいて経験的な成功にもかかわらず、勾配に基づくアルゴリズムが証明可能な精度でスコア関数を学習できるかどうかは不明である。
論文 参考訳(メタデータ) (2024-01-28T08:13:56Z) - Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Collapsed Inference for Bayesian Deep Learning [36.1725075097107]
本稿では,崩壊サンプルを用いたベイズモデル平均化を行う新しい崩壊予測手法を提案する。
崩壊したサンプルは、近似後部から引き出された数え切れないほど多くのモデルを表す。
提案手法は, スケーラビリティと精度のバランスをとる。
論文 参考訳(メタデータ) (2023-06-16T08:34:42Z) - Solving Inverse Problems with Score-Based Generative Priors learned from
Noisy Data [1.7969777786551424]
SURE-Scoreは、加法ガウス雑音で劣化したトレーニングサンプルを用いてスコアベースの生成モデルを学習するためのアプローチである。
2つの実践的応用において,SURE-Scoreの事前学習と逆問題に対する後続サンプリングの適用による一般化を実証する。
論文 参考訳(メタデータ) (2023-05-02T02:51:01Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。