論文の概要: From Initial Data to Boundary Layers: Neural Networks for Nonlinear Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2506.01453v1
- Date: Mon, 02 Jun 2025 09:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.11484
- Title: From Initial Data to Boundary Layers: Neural Networks for Nonlinear Hyperbolic Conservation Laws
- Title(参考訳): 初期データから境界層へ:非線形双曲保存法のためのニューラルネットワーク
- Authors: Igor Ciril, Khalil Haddaoui, Yohann Tendero,
- Abstract要約: ニューラルネットワークを用いた非線形厳密な双曲保存則に対する初期境界値問題に対するエントロピー解の近似に対処する。
トレーニング中の高速収束と正確な予測を組み合わせた、効率的で信頼性の高い学習アルゴリズムの設計のための、汎用的で体系的なフレームワークが導入された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We address the approximation of entropy solutions to initial-boundary value problems for nonlinear strictly hyperbolic conservation laws using neural networks. A general and systematic framework is introduced for the design of efficient and reliable learning algorithms, combining fast convergence during training with accurate predictions. The methodology is assessed through a series of one-dimensional scalar test cases, highlighting its potential applicability to more complex industrial scenarios.
- Abstract(参考訳): ニューラルネットワークを用いた非線形厳密な双曲保存則に対する初期境界値問題に対するエントロピー解の近似に対処する。
トレーニング中の高速収束と正確な予測を組み合わせた、効率的で信頼性の高い学習アルゴリズムの設計のための、汎用的で体系的なフレームワークが導入された。
この方法論は、一連の1次元スカラーテストケースを通じて評価され、より複雑な工業シナリオへの適用可能性を強調している。
関連論文リスト
- Certified Neural Approximations of Nonlinear Dynamics [52.79163248326912]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Neural Contraction Metrics with Formal Guarantees for Discrete-Time Nonlinear Dynamical Systems [17.905596843865705]
収縮メトリクスは、様々な力学系の安定性、堅牢性、収束性を分析する強力なフレームワークを提供する。
しかしながら、複雑な非線形系に対するこれらの指標の同定は、効果的なツールが欠如しているため、未解決の課題である。
本稿では,離散的スケーラブル非線形システムに対する検証可能な収縮指標について述べる。
論文 参考訳(メタデータ) (2025-04-23T21:27:32Z) - Fréchet Cumulative Covariance Net for Deep Nonlinear Sufficient Dimension Reduction with Random Objects [22.156257535146004]
Fr'echet Cumulative Covariance (FCCov) と呼ばれる新しい統計依存度尺度を導入し、FCCovに基づく新しい非線形SDRフレームワークを開発する。
我々のアプローチは複雑な非ユークリッドデータに適用できるだけでなく、外れ値に対する堅牢性も示している。
正方形フロベニウスノルム正規化の手法は、$sigma$-fieldレベルで不偏性を達成することを証明している。
論文 参考訳(メタデータ) (2025-02-21T10:55:50Z) - ENFORCE: Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
本稿では,適応プロジェクションモジュール(AdaNP)を用いたニューラルネットワークアーキテクチャであるENFORCEを紹介した。
プロジェクションマッピングが1-Lipschitzであることが証明され、安定したトレーニングに適している。
我々の新しいアーキテクチャの予測は、ニューラルネットワークの入力と出力の両方において非線形である$N_C$等式制約を満たす。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - The Neural Network shifted-Proper Orthogonal Decomposition: a Machine
Learning Approach for Non-linear Reduction of Hyperbolic Equations [0.0]
本研究では,統計的学習フレームワークにおいて,正しい前処理変換を自動的に検出する問題にアプローチする。
純粋にデータ駆動方式により、線形部分空間操作の既存のアプローチを未知の対流場を持つ非線形双曲問題に一般化することができる。
提案アルゴリズムは、その性能をベンチマークするために単純なテストケースに対して検証され、その後、多相シミュレーションに成功している。
論文 参考訳(メタデータ) (2021-08-14T15:13:35Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。