論文の概要: Asymptotic-Preserving Neural Networks for hyperbolic systems with
diffusive scaling
- arxiv url: http://arxiv.org/abs/2210.09081v1
- Date: Mon, 17 Oct 2022 13:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 22:07:34.002660
- Title: Asymptotic-Preserving Neural Networks for hyperbolic systems with
diffusive scaling
- Title(参考訳): 拡散スケーリングを伴う双曲系に対する漸近保存ニューラルネットワーク
- Authors: Giulia Bertaglia
- Abstract要約: Asymptotic-Preserving Neural Networks (APNN) は,標準のDNNやPINNと比較して,問題スケールの違いに対して,かなり優れた結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advance of Machine Learning techniques and the deep increment
of availability of scientific data, data-driven approaches have started to
become progressively popular across science, causing a fundamental shift in the
scientific method after proving to be powerful tools with a direct impact in
many areas of society. Nevertheless, when attempting to analyze the dynamics of
complex multiscale systems, the usage of standard Deep Neural Networks (DNNs)
and even standard Physics-Informed Neural Networks (PINNs) may lead to
incorrect inferences and predictions, due to the presence of small scales
leading to reduced or simplified models in the system that have to be applied
consistently during the learning process. In this Chapter, we will address
these issues in light of recent results obtained in the development of
Asymptotic-Preserving Neural Networks (APNNs) for hyperbolic models with
diffusive scaling. Several numerical tests show how APNNs provide considerably
better results with respect to the different scales of the problem when
compared with standard DNNs and PINNs, especially when analyzing scenarios in
which only little and scattered information is available.
- Abstract(参考訳): 機械学習技術の急速な進歩と科学データの利用の深化により、データ駆動型アプローチは科学全体で徐々に普及し始め、社会の多くの領域に直接的な影響を与える強力なツールであることが証明された後、科学手法の根本的な変化を引き起こした。
それでも、複雑なマルチスケールシステムのダイナミクスを解析しようとすると、学習プロセス中に一貫した適用を必要とするシステム内の縮小モデルや単純化モデルにつながる小さなスケールが存在するため、標準ディープニューラルネットワーク(DNN)や標準物理情報ニューラルネットワーク(PINN)の使用は誤った推論と予測につながる可能性がある。
本章では,双曲線モデルのための漸近保存ニューラルネットワーク(apnns)の開発で得られた最近の結果を踏まえて,これらの問題に対処する。
いくつかの数値実験は、標準的なDNNやPINNと比較して、APNNが問題の大きさに関して、特に、ほとんど情報や散らばった情報しか得られないシナリオを解析する場合に、かなり良い結果をもたらすことを示す。
関連論文リスト
- SEANN: A Domain-Informed Neural Network for Epidemiological Insights [0.9749638953163389]
ドメイン固有知識の一般的な形式を活用した情報診断のための新しいアプローチSEANNを紹介します:pooled Effect Sizes (PES)
PESは、公表されたメタ分析研究でよく見られ、異なる形態で、科学的コンセンサスの定量的な形態を表している。
本研究では, 予測性能の一般化可能性および抽出された関係の科学的妥当性について, 有意な改善を実験的に示す。
論文 参考訳(メタデータ) (2025-01-17T16:01:05Z) - Advancing Spiking Neural Networks towards Multiscale Spatiotemporal Interaction Learning [10.702093960098106]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)のエネルギー効率の良い代替品として機能する
我々は、マルチスケールの時間的相互作用情報をキャプチャするスパイキング・マルチスケール・アテンション(SMA)モジュールを設計した。
われわれのアプローチは、主流のニューラルネットワークで最先端の結果を得た。
論文 参考訳(メタデータ) (2024-05-22T14:16:05Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Asymptotic-Preserving Neural Networks for multiscale hyperbolic models
of epidemic spread [0.0]
多くの状況において、感染症の空間的伝播は、多スケールのPDEによって管理される異なるスケールの個体の動きによって特徴づけられる。
複数のスケールが存在する場合、PINNの直接適用は一般的に、ニューラルネットワークの損失関数における微分モデルのマルチスケールの性質のため、結果の低下につながる。
本稿では,パンデミック拡散のマルチスケール多代謝輸送モデルのための新しいAPニューラルネットワーク(APNN)について考察する。
論文 参考訳(メタデータ) (2022-06-25T11:25:47Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next [5.956366179544257]
physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
論文 参考訳(メタデータ) (2022-01-14T19:05:44Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。