論文の概要: Discovering Scaling Exponents with Physics-Informed Müntz-Szász Networks
- arxiv url: http://arxiv.org/abs/2601.22751v1
- Date: Fri, 30 Jan 2026 09:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.348976
- Title: Discovering Scaling Exponents with Physics-Informed Müntz-Szász Networks
- Title(参考訳): 物理インフォームドMüntz-Szászネットワークによるスケーリング指数の発見
- Authors: Gnankan Landry Regis N'guessan, Bum Jun Kim,
- Abstract要約: M'untz-Sz'asz Networks (MSN-PINN) を導入し,拡張指数をトレーニング可能なパラメータとして扱う。
これらの条件下では、学習された指数と真の指数の間の二乗誤差が$O(- |2)$とスケールすることを示す。
- 参考スコア(独自算出の注目度): 3.1861308132183375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical systems near singularities, interfaces, and critical points exhibit power-law scaling, yet standard neural networks leave the governing exponents implicit. We introduce physics-informed M"untz-Sz'asz Networks (MSN-PINN), a power-law basis network that treats scaling exponents as trainable parameters. The model outputs both the solution and its scaling structure. We prove identifiability, or unique recovery, and show that, under these conditions, the squared error between learned and true exponents scales as $O(|μ- α|^2)$. Across experiments, MSN-PINN achieves single-exponent recovery with 1--5% error under noise and sparse sampling. It recovers corner singularity exponents for the two-dimensional Laplace equation with 0.009% error, matches the classical result of Kondrat'ev (1967), and recovers forcing-induced exponents in singular Poisson problems with 0.03% and 0.05% errors. On a 40-configuration wedge benchmark, it reaches a 100% success rate with 0.022% mean error. Constraint-aware training encodes physical requirements such as boundary condition compatibility and improves accuracy by three orders of magnitude over naive training. By combining the expressiveness of neural networks with the interpretability of asymptotic analysis, MSN-PINN produces learned parameters with direct physical meaning.
- Abstract(参考訳): 特異点、インターフェース、臨界点に近い物理系は、パワー則スケーリングを示すが、標準的なニューラルネットワークは支配指数を暗黙的に残す。
物理インフォームドM"untz-Sz'asz Networks (MSN-PINN) を導入し,拡張指数をトレーニング可能なパラメータとして扱う。
モデルは、解とそのスケーリング構造の両方を出力する。
これらの条件下では、学習された指数と真の指数の間の二乗誤差が$O(|μ-α|^2)$であることを示す。
実験全体で、MSN-PINNはノイズとスパースサンプリングの下で1-5%の誤差で単発回復を達成する。
2次元ラプラス方程式のコーナー特異性指数を0.009%の誤差で回復し、Kondrat'ev (1967) の古典的な結果と一致し、特異ポアソン問題における強制誘発指数を0.03%と0.05%の誤差で回復する。
40-configuration wedgeベンチマークでは、平均エラーが0.022%で100%の成功率に達する。
Constraint-Aware Trainingは、境界条件の整合性などの物理的要件を符号化し、単純トレーニングよりも3桁の精度を向上する。
ニューラルネットワークの表現力と漸近解析の解釈可能性を組み合わせることで、MSN-PINNは直接的物理的意味を持つ学習パラメータを生成する。
関連論文リスト
- Robust Physics Discovery from Highly Corrupted Data: A PINN Framework Applied to the Nonlinear Schrödinger Equation [0.0]
重騒音条件下でのNVIDIA Schrodinger Equation(LSEN)から物理パラメータを復元できるディープラーニングフレームワークを実証する。
相対誤差が0.2%未満の非線形係数ベータを500個のスパースサンプルデータポイントのみを用いて再構成する。
その結果,物理学に基づく正則化は高い測定の不確実性に対して有効なフィルタとして機能することが示唆された。
論文 参考訳(メタデータ) (2026-01-07T18:43:11Z) - Müntz-Szász Networks: Neural Architectures with Learnable Power-Law Bases [0.0]
Mntz-Szsz Networks (MSN) は、固定されたスムーズなアクティベーションを学習可能な分数パワーベースに置き換える新しいアーキテクチャである。
我々は、MSNがMntz-Szsz定理から普遍近似を継承し、新しい近似速度を確立することを証明した。
本結果は,理論誘導型アーキテクチャ設計が科学的動機付け関数クラスに劇的な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-12-22T23:04:18Z) - Newton-Puiseux Analysis for Interpretability and Calibration of Complex-Valued Neural Networks [0.0]
複雑なニューラルネットワーク(CVNN)は、心電図(ECG)、レーダー/ソナー、無線の位相/四分法(I/Q)ストリームなどの位相感受性信号を扱うのに適している。
訓練されたCVNNの局所的決定幾何を,小型のキンク対応サロゲートに適合させて検討するNewton-Puiseuxフレームワークを提案する。
我々のフェーズアウェア分析は、制御された$C2$合成ベンチマークを超える2つのケーススタディにおいて、センシティブな方向を特定し、予測エラーを強化する。
論文 参考訳(メタデータ) (2025-04-27T09:37:07Z) - Towards large-scale quantum optimization solvers with few qubits [59.63282173947468]
我々は、$m=mathcalO(nk)$バイナリ変数を$n$ qubitsだけを使って最適化するために、$k>1$で可変量子ソルバを導入する。
我々は,特定の量子ビット効率の符号化が,バレン高原の超ポリノミウム緩和を内蔵特徴としてもたらすことを解析的に証明した。
論文 参考訳(メタデータ) (2024-01-17T18:59:38Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Learning from Integral Losses in Physics Informed Neural Networks [7.4308941970763795]
本研究は,部分積分微分方程式の下での物理インフォームドネットワークのトレーニング問題に対する解を提案する。
これらの積分を偏りのない推定値に置き換えることで、偏りのある損失関数や解が導かれることを示す。
また,提案手法が提案され,提案手法が提案されることにより,サンプルサイズの積分値と同等の精度で精度の高い解が得られることを示す。
論文 参考訳(メタデータ) (2023-05-27T06:46:08Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Cryptanalytic Extraction of Neural Network Models [56.738871473622865]
遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができる差動攻撃を導入する。
我々の攻撃は、ReLUニューラルネットワークが一括線形関数であるという事実に依存している。
220倍の正確さと100倍のクエリを必要とするモデルを抽出する。
論文 参考訳(メタデータ) (2020-03-10T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。