論文の概要: Solving and learning advective multiscale Darcian dynamics with the Neural Basis Method
- arxiv url: http://arxiv.org/abs/2602.17776v1
- Date: Thu, 19 Feb 2026 19:17:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.114335
- Title: Solving and learning advective multiscale Darcian dynamics with the Neural Basis Method
- Title(参考訳): ニューラル基底法による多スケールダルシアンダイナミクスの解法と学習
- Authors: Yuhe Wang, Min Wang,
- Abstract要約: 本稿では,物理変換型ニューラルベース空間と演算子誘起残留距離を結合した投影型モデルであるNeural Basis法を紹介する。
提案手法は, 高精度かつ堅牢な解を単一解法で生成し, 演算子学習による高速かつ効果的なパラメトリック推論を可能にする。
- 参考スコア(独自算出の注目度): 4.331539387944184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-governed models are increasingly paired with machine learning for accelerated predictions, yet most "physics--informed" formulations treat the governing equations as a penalty loss whose scale and meaning are set by heuristic balancing. This blurs operator structure, thereby confounding solution approximation error with governing-equation enforcement error and making the solving and learning progress hard to interpret and control. Here we introduce the Neural Basis Method, a projection-based formulation that couples a predefined, physics-conforming neural basis space with an operator-induced residual metric to obtain a well-conditioned deterministic minimization. Stability and reliability then hinge on this metric: the residual is not merely an optimization objective but a computable certificate tied to approximation and enforcement, remaining stable under basis enrichment and yielding reduced coordinates that are learnable across parametric instances. We use advective multiscale Darcian dynamics as a concrete demonstration of this broader point. Our method produce accurate and robust solutions in single solves and enable fast and effective parametric inference with operator learning.
- Abstract(参考訳): 物理学が支配するモデルは、予測を加速するために機械学習とペアになっていくが、ほとんどの「物理学的インフォームド」な定式化は、支配方程式をヒューリスティックバランスによってスケールと意味が設定されるペナルティ損失として扱う。
これにより、演算子構造を曖昧にし、解近似誤差を支配方程式強制誤差と混同し、解法と学習の進歩を解釈・制御しにくくする。
ここでは、予め定義された物理変換ニューラル基底空間と演算子誘導残差計量とを結合させて、よく条件付き決定論的最小化を求めるプロジェクションベースの定式化であるニューラル基底法を紹介する。
残差は単なる最適化の目的ではなく、近似と強制に結びついた計算可能な証明であり、基底の富化とパラメトリックのインスタンス間で学習可能な縮小された座標が得られる。
我々は、このより広い点の具体的な実演として、アドベクティブなマルチスケールダルシアン力学を用いる。
提案手法は, 高精度かつ堅牢な解を単一解法で生成し, 演算子学習による高速かつ効果的なパラメトリック推論を可能にする。
関連論文リスト
- Efficient quantum machine learning with inverse-probability algebraic corrections [2.7412662946127764]
量子ニューラルネットワーク(QNN)は、量子重畳と絡み合いを利用して表現力のある確率モデルを提供する。
量子ニューラルネットワーク(QNN)は、量子重畳と絡み合いを利用して表現力のある確率モデルを提供する。
既存のトレーニングアプローチは、主に勾配に基づく手続き最適化に依存している。
論文 参考訳(メタデータ) (2026-01-23T11:28:53Z) - Convergence Rates for Learning Pseudo-Differential Operators [1.1559118525005183]
楕円型擬微分作用素上での学習を,多スケール空間を持つ無限次元回帰問題として定式化する。
学習した演算子は,数値誤差がその統計的精度と一致する,効率的で安定したガレルキン解法を導出することを示す。
この結果は,演算子学習,データ駆動型解法,ウェーブレット法を科学計算に組み込むことに寄与する。
論文 参考訳(メタデータ) (2026-01-08T01:21:08Z) - A statistical physics framework for optimal learning [1.243080988483032]
我々は、ニューラルネットワークモデルにおける最適なプロトコルを特定するために、統計物理学と制御理論を統合理論の枠組みで組み合わせる。
本稿では,動的順序パラメータに基づいて,学習プロトコルを最適制御問題として定式化する。
このフレームワークには、さまざまな学習シナリオ、最適化制約、制御予算が含まれています。
論文 参考訳(メタデータ) (2025-07-10T16:39:46Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Actively Learning Reinforcement Learning: A Stochastic Optimal Control Approach [3.453622106101339]
本研究では,2つの相互に結びついた目的を達成するための枠組みを提案する。 (i) 積極的な探索と意図的な情報収集を伴う強化学習と, (ii) 最適制御法の計算的難易度を克服する枠組みである。
我々は、強化学習を用いて最適制御則を計算することにより、両方の目的にアプローチする。
一定の探索と搾取バランスとは異なり、学習プロセスが終了しても、警告と探索はリアルタイムでコントローラによって自動的に行われる。
論文 参考訳(メタデータ) (2023-09-18T18:05:35Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Annealing Optimization for Progressive Learning with Stochastic
Approximation [0.0]
計算資源が限られているアプリケーションのニーズを満たすために設計された学習モデルを導入する。
我々は,オンラインな勾配近似アルゴリズムとして定式化されたオンラインプロトタイプベースの学習アルゴリズムを開発した。
学習モデルは、教師なし、教師なし、強化学習に使用される、解釈可能で、徐々に成長する競争的ニューラルネットワークモデルと見なすことができる。
論文 参考訳(メタデータ) (2022-09-06T21:31:01Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Deep learning: a statistical viewpoint [120.94133818355645]
ディープラーニングは、理論的観点からいくつかの大きな驚きを明らかにしました。
特に、簡単な勾配法は、最適でないトレーニング問題に対するほぼ完全な解決策を簡単に見つけます。
我々はこれらの現象を具体的原理で補うと推測する。
論文 参考訳(メタデータ) (2021-03-16T16:26:36Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。