論文の概要: Minimum-Action Learning: Energy-Constrained Symbolic Model Selection for Physical Law Identification from Noisy Data
- arxiv url: http://arxiv.org/abs/2603.16951v1
- Date: Mon, 16 Mar 2026 20:45:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.29757
- Title: Minimum-Action Learning: Energy-Constrained Symbolic Model Selection for Physical Law Identification from Noisy Data
- Title(参考訳): 最小アクション学習:雑音データからの物理法則同定のためのエネルギー制約記号モデル選択
- Authors: Martin G. Frasch,
- Abstract要約: 本稿では,予め規定された基本ライブラリから記号力法則を選択するフレームワークであるMinimum-Action Learning(MAL)を提案する。
広ステンシル加速度マッチング技術は1万倍のノイズ分散を低減し、難解な問題(SNR 0.02)を学習可能な問題(SNR 1.6)に変換する
生の正解率はケプラーの40%、フックの90%であり、エネルギー保存に基づく基準は全ての場合において真の力法則を識別し、100%のパイプラインレベル同定をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Identifying physical laws from noisy observational data is a central challenge in scientific machine learning. We present Minimum-Action Learning (MAL), a framework that selects symbolic force laws from a pre-specified basis library by minimizing a Triple-Action functional combining trajectory reconstruction, architectural sparsity, and energy-conservation enforcement. A wide-stencil acceleration-matching technique reduces noise variance by 10,000x, transforming an intractable problem (SNR ~0.02) into a learnable one (SNR ~1.6); this preprocessing is the critical enabler shared by all methods tested, including SINDy variants. On two benchmarks -- Kepler gravity and Hooke's law -- MAL recovers the correct force law with Kepler exponent p = 3.01 +/- 0.01 at ~0.07 kWh (40% reduction vs. prediction-error-only baselines). The raw correct-basis rate is 40% for Kepler and 90% for Hooke; an energy-conservation-based criterion discriminates the true force law in all cases, yielding 100% pipeline-level identification. Basis library sensitivity experiments show that near-confounders degrade selection (20% with added r^{-2.5} and r^{-1.5}), while distant additions are harmless, and the conservation diagnostic remains informative even when the correct basis is absent. Direct comparison with noise-robust SINDy variants, Hamiltonian Neural Networks, and Lagrangian Neural Networks confirms MAL's distinct niche: interpretable, energy-constrained model selection that combines symbolic basis identification with dynamical rollout validation.
- Abstract(参考訳): ノイズの多い観測データから物理法則を同定することは、科学機械学習における中心的な課題である。
本稿では,三重項関数関数をトラジェクトリ再構成,アーキテクチャの疎度,エネルギー保存の実施を最小化することにより,事前指定した基本ライブラリから記号力法則を選択するフレームワークであるミニマム・アクション・ラーニング(MAL)を提案する。
広ステンシル加速度マッチング技術はノイズ分散を1万倍に減らし、難解な問題(SNR ~0.02)を学習可能な問題(SNR ~1.6)に変換する。
ケプラー重力法則とフック法則の2つのベンチマークにおいて、MALはケプラー指数 p = 3.01 +/- 0.01 で ~0.07 kWh で正しい力法則を回復する。
生の正解率はケプラーの40%、フックの90%であり、エネルギー保存に基づく基準は全ての場合において真の力法則を識別し、100%のパイプラインレベル同定をもたらす。
ベーシックライブラリの感度実験により, ほぼ共同ファウンダーは選択を低下させる(20%にr^{-2.5}とr^{-1.5}を加えた)が, 遠隔付加は無害であり, 適切な基準が存在しない場合でも保存診断は有益であることがわかった。
ノイズロスのSINDy変種、ハミルトンニューラルネットワーク、ラグランジアンニューラルネットワークと直接比較することで、MALの独特なニッチである解釈可能でエネルギー制約のあるモデル選択が、シンボルベース同定と動的ロールアウトバリデーションを組み合わせたものであることを確認した。
関連論文リスト
- Rate or Fate? RLV$^\varepsilon$R: Reinforcement Learning with Verifiable Noisy Rewards [2.0987013818856877]
検証可能な報酬を伴う強化学習(RLVR)は、LLMを訓練するための単純だが強力なパラダイムである。
しかし実際には、検証器はほとんど決してクリーンユニットテストではなく、限られたコーナーケースのみを探索する。
検証ノイズは単に学習(レート)を遅くするだけなのか、それとも結果(フィート)を覆すことができるのか?
論文 参考訳(メタデータ) (2026-01-07T21:31:26Z) - Robust Physics Discovery from Highly Corrupted Data: A PINN Framework Applied to the Nonlinear Schrödinger Equation [0.0]
重騒音条件下でのNVIDIA Schrodinger Equation(LSEN)から物理パラメータを復元できるディープラーニングフレームワークを実証する。
相対誤差が0.2%未満の非線形係数ベータを500個のスパースサンプルデータポイントのみを用いて再構成する。
その結果,物理学に基づく正則化は高い測定の不確実性に対して有効なフィルタとして機能することが示唆された。
論文 参考訳(メタデータ) (2026-01-07T18:43:11Z) - EDIT: Early Diffusion Inference Termination for dLLMs Based on Dynamics of Training Gradients [6.736735746633275]
拡散に基づく大規模言語モデル (dLLMs) は反復的妄想を通じてトークン生成を洗練させるが、全てのステップが完了する前に答えは安定することが多い。
本稿では,トレーニング時推論に対する十分な推論安定性が検出された場合に,適応的にデノイングを停止する推論時基準であるEDITを提案する。
論文 参考訳(メタデータ) (2025-11-29T23:47:47Z) - Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Nonparametric Regression with Shallow Overparameterized Neural Networks
Trained by GD with Early Stopping [11.24426822697648]
GD(Gradient Descent)によってトレーニングされたニューラルネットワークは,入力に対してスムーズであることを示す。
ノイズフリーの場合、証明はいかなる核化にも依存せず、有限幅の結果と見なすことができる。
論文 参考訳(メタデータ) (2021-07-12T11:56:53Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。