論文の概要: Supervised and Unsupervised Neural Network Solver for First Order Hyperbolic Nonlinear PDEs
- arxiv url: http://arxiv.org/abs/2601.06388v1
- Date: Sat, 10 Jan 2026 02:14:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.786103
- Title: Supervised and Unsupervised Neural Network Solver for First Order Hyperbolic Nonlinear PDEs
- Title(参考訳): 1次双曲型非線形PDEのための教師なしニューラルネットワーク解法
- Authors: Zakaria Baba, Alexandre M. Bayen, Alexi Canesse, Maria Laura Delle Monache, Martin Drieux, Zhe Fu, Nathan Lichtlé, Zihe Liu, Hossein Nick Zinat Matin, Benedetto Piccoli,
- Abstract要約: 本稿では,スカラー双曲保存法則を学習するためのニューラルネットワークに基づく手法を提案する。
本手法は,有限体積スキームの従来の数値フラックスをトレーニング可能なニューラルネットワークで置き換える。
我々は,モデルが任意に良好に動作できることを理論的に示し,関連するニューラルネットワークサイズに関する上限を与える。
- 参考スコア(独自算出の注目度): 37.19141675696266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a neural network-based method for learning scalar hyperbolic conservation laws. Our method replaces the traditional numerical flux in finite volume schemes with a trainable neural network while preserving the conservative structure of the scheme. The model can be trained both in a supervised setting with efficiently generated synthetic data or in an unsupervised manner, leveraging the weak formulation of the partial differential equation. We provide theoretical results that our model can perform arbitrarily well, and provide associated upper bounds on neural network size. Extensive experiments demonstrate that our method often outperforms efficient schemes such as Godunov's scheme, WENO, and Discontinuous Galerkin for comparable computational budgets. Finally, we demonstrate the effectiveness of our method on a traffic prediction task, leveraging field experimental highway data from the Berkeley DeepDrive drone dataset.
- Abstract(参考訳): 本稿では,スカラー双曲保存法則を学習するためのニューラルネットワークに基づく手法を提案する。
提案手法は,有限体積スキームの従来の数値フラックスを,そのスキームの保守構造を保ちながらトレーニング可能なニューラルネットワークに置き換える。
このモデルは、効率的に生成された合成データを用いて教師付き設定でも、あるいは教師なしの方法で訓練することができ、偏微分方程式の弱い定式化を利用することができる。
我々は,モデルが任意に良好に動作できることを理論的に示し,関連するニューラルネットワークサイズに関する上限を与える。
大規模な実験では、ゴドゥノフのスキーム、WENO、不連続ガレルキンなどの効率的なスキームを同等の計算予算で上回ることがしばしば示されている。
最後に,バークレー・ディープドライブ・ドローン・データセットのフィールド実験ハイウェイデータを活用することにより,交通予測作業における提案手法の有効性を実証する。
関連論文リスト
- Layerwise goal-oriented adaptivity for neural ODEs: an optimal control perspective [0.0]
本稿では,ニューラルネットワークアーキテクチャの階層的適応構築法を提案する。
文献からよく知られた例の選考の結果を提示する。
論文 参考訳(メタデータ) (2026-01-12T10:32:37Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Physics Informed Kolmogorov-Arnold Neural Networks for Dynamical Analysis via Efficent-KAN and WAV-KAN [0.12045539806824918]
物理インフォームド・コルモゴロフ・アルノルドニューラルネットワーク(PIKAN)を効率的なKANとWAV-KANにより実装する。
PIKANは従来のディープニューラルネットワークよりも優れた性能を示し、少ないレイヤで同じレベルの精度を実現し、計算オーバーヘッドを低減している。
論文 参考訳(メタデータ) (2024-07-25T20:14:58Z) - Neural Networks-based Random Vortex Methods for Modelling Incompressible Flows [0.0]
本稿では,(2D)非圧縮性ナビエ-ストークス方程式に対する解を近似するためのニューラルネットワークに基づく新しい手法を提案する。
我々のアルゴリズムはニューラルネットワーク(NN)を用いており、ランダム渦ダイナミクスの計算効率の良い定式化を利用する損失関数に基づいて渦性を近似している。
論文 参考訳(メタデータ) (2024-05-22T14:36:23Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - An alternative approach to train neural networks using monotone
variational inequality [22.320632565424745]
本稿では,モノトーンベクトル場を用いたニューラルネットワークトレーニングの代替手法を提案する。
我々のアプローチは、事前訓練されたニューラルネットワークのより効率的な微調整に利用できる。
論文 参考訳(メタデータ) (2022-02-17T19:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。