論文の概要: From Initial Data to Boundary Layers: Neural Networks for Nonlinear Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2506.01453v2
- Date: Sun, 14 Sep 2025 18:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.198714
- Title: From Initial Data to Boundary Layers: Neural Networks for Nonlinear Hyperbolic Conservation Laws
- Title(参考訳): 初期データから境界層へ:非線形双曲保存法のためのニューラルネットワーク
- Authors: Igor Ciril, Khalil Haddaoui, Yohann Tendero,
- Abstract要約: ニューラルネットワークを用いた非線形厳密な双曲保存則に対する初期境界値問題に対するエントロピー解の近似に対処する。
効率的で信頼性の高い学習アルゴリズムの設計のために、汎用的で体系的なフレームワークが導入された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We address the approximation of entropy solutions to initial-boundary value problems for nonlinear strictly hyperbolic conservation laws using neural networks. A general and systematic framework is introduced for the design of efficient and reliable learning algorithms, combining fast convergence during training with accurate predictions. The methodology that relies on solving a certain relaxed related problem is assessed through a series of one-dimensional scalar test cases. These numerical experiments demonstrate the potential of the methodology developed in this paper and its applicability to more complex industrial scenarios.
- Abstract(参考訳): ニューラルネットワークを用いた非線形厳密な双曲保存則に対する初期境界値問題に対するエントロピー解の近似に対処する。
トレーニング中の高速収束と正確な予測を組み合わせた、効率的で信頼性の高い学習アルゴリズムの設計のための、汎用的で体系的なフレームワークが導入された。
ある緩和された関連する問題の解決に依存する方法論は、一連の1次元スカラーテストケースを通して評価される。
これらの数値実験は、本論文で開発された方法論の可能性と、より複雑な工業シナリオへの適用性を示すものである。
関連論文リスト
- Faster Predictive Coding Networks via Better Initialization [52.419343840654186]
本稿では,従来のトレーニングサンプルの反復的進捗を抑えることを目的とした,予測符号化ネットワークのための新しい手法を提案する。
本実験は,教師なし設定と教師なし設定の両方において,収束速度と最終テスト損失が大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2026-01-28T08:52:19Z) - Learn and Verify: A Framework for Rigorous Verification of Physics-Informed Neural Networks [12.111053304637808]
微分方程式の解に対して計算可能で数学的に厳密な誤差境界を提供する枠組みを提案する。
学習用DSM(Douubly Smoothed Maximum)損失と検証用インターバル算術を組み合わせることで,厳密なアフターリエラー境界をマシン検証可能な証明として計算する。
論文 参考訳(メタデータ) (2026-01-27T17:21:33Z) - Soliton profiles: Classical Numerical Schemes vs. Neural Network - Based Solvers [0.24999074238880484]
本稿では,古典的数値解法とニューラルネットワークを用いた手法の比較研究を行う。
我々は,古典的手法が単一インスタンス問題に対して高次精度と高い計算効率を維持していることを確認した。
しかし、シングルインスタンス計算では、演算子学習法の精度は古典的手法やPINNよりも低いままである。
論文 参考訳(メタデータ) (2025-12-31T05:13:16Z) - Neural Entropy-stable conservative flux form neural networks for learning hyperbolic conservation laws [2.8680286413498903]
双曲的保存法則を学習するためのニューラルエントロピー安定型保守型フラックス型ニューラルネットワーク(NESCFN)を提案する。
このアプローチは、エントロピー安定設計原則を学習プロセス自体に組み込むことによって、この依存関係を取り除く。
論文 参考訳(メタデータ) (2025-07-02T15:18:04Z) - Certified Neural Approximations of Nonlinear Dynamics [52.79163248326912]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Neural Contraction Metrics with Formal Guarantees for Discrete-Time Nonlinear Dynamical Systems [17.905596843865705]
収縮メトリクスは、様々な力学系の安定性、堅牢性、収束性を分析する強力なフレームワークを提供する。
しかしながら、複雑な非線形系に対するこれらの指標の同定は、効果的なツールが欠如しているため、未解決の課題である。
本稿では,離散的スケーラブル非線形システムに対する検証可能な収縮指標について述べる。
論文 参考訳(メタデータ) (2025-04-23T21:27:32Z) - Fréchet Cumulative Covariance Net for Deep Nonlinear Sufficient Dimension Reduction with Random Objects [22.156257535146004]
Fr'echet Cumulative Covariance (FCCov) と呼ばれる新しい統計依存度尺度を導入し、FCCovに基づく新しい非線形SDRフレームワークを開発する。
我々のアプローチは複雑な非ユークリッドデータに適用できるだけでなく、外れ値に対する堅牢性も示している。
正方形フロベニウスノルム正規化の手法は、$sigma$-fieldレベルで不偏性を達成することを証明している。
論文 参考訳(メタデータ) (2025-02-21T10:55:50Z) - ENFORCE: Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
本稿では,適応プロジェクションモジュール(AdaNP)を用いたニューラルネットワークアーキテクチャであるENFORCEを紹介した。
プロジェクションマッピングが1-Lipschitzであることが証明され、安定したトレーニングに適している。
我々の新しいアーキテクチャの予測は、ニューラルネットワークの入力と出力の両方において非線形である$N_C$等式制約を満たす。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - The Neural Network shifted-Proper Orthogonal Decomposition: a Machine
Learning Approach for Non-linear Reduction of Hyperbolic Equations [0.0]
本研究では,統計的学習フレームワークにおいて,正しい前処理変換を自動的に検出する問題にアプローチする。
純粋にデータ駆動方式により、線形部分空間操作の既存のアプローチを未知の対流場を持つ非線形双曲問題に一般化することができる。
提案アルゴリズムは、その性能をベンチマークするために単純なテストケースに対して検証され、その後、多相シミュレーションに成功している。
論文 参考訳(メタデータ) (2021-08-14T15:13:35Z) - Inverse Problem of Nonlinear Schr\"odinger Equation as Learning of
Convolutional Neural Network [5.676923179244324]
提案手法を用いて,パラメータの相対的精度を推定できることを示す。
深い学習を伴う偏微分方程式の逆問題における自然な枠組みを提供する。
論文 参考訳(メタデータ) (2021-07-19T02:54:37Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。