論文の概要: Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities
- arxiv url: http://arxiv.org/abs/2602.08419v1
- Date: Mon, 09 Feb 2026 09:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.147184
- Title: Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities
- Title(参考訳): Radial Müntz-Szász Networks: 多次元特異性のための学習可能なベースを持つニューラルネットワーク
- Authors: Gnankan Landry Regis N'guessan, Bum Jun Kim,
- Abstract要約: ラジアル Mntz-Szsz Networks (RMN) は、学習可能なラジアルパワーの線形結合として、負の指数を含む$r$を表す。
RMNは座標よりも1.5$times$-51$times$低いRMSE、10$times$-100$times$低いRMSEを達成する。
- 参考スコア(独自算出の注目度): 3.1861308132183375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radial singular fields, such as $1/r$, $\log r$, and crack-tip profiles, are difficult to model for coordinate-separable neural architectures. We show that any $C^2$ function that is both radial and additively separable must be quadratic, establishing a fundamental obstruction for coordinate-wise power-law models. Motivated by this result, we introduce Radial Müntz-Szász Networks (RMN), which represent fields as linear combinations of learnable radial powers $r^μ$, including negative exponents, together with a limit-stable log-primitive for exact $\log r$ behavior. RMN admits closed-form spatial gradients and Laplacians, enabling physics-informed learning on punctured domains. Across ten 2D and 3D benchmarks, RMN achieves 1.5$\times$--51$\times$ lower RMSE than MLPs and 10$\times$--100$\times$ lower RMSE than SIREN while using 27 parameters, compared with 33,537 for MLPs and 8,577 for SIREN. We extend RMN to angular dependence (RMN-Angular) and to multiple sources with learnable centers (RMN-MC); when optimization converges, source-center recovery errors fall below $10^{-4}$. We also report controlled failures on smooth, strongly non-radial targets to delineate RMN's operating regime.
- Abstract(参考訳): 1/r$、$\log r$、クラックチッププロファイルなどのラジアル特異体は、座標分離可能なニューラルアーキテクチャのモデル化が困難である。
我々は、ラジアルかつ加法的に分離可能な任意の$C^2$関数は二次的でなければならないことを示す。
この結果により、負の指数を含む学習可能なラジアルパワー$r^μ$の線形結合として場を表すラジアル・ミュンツ=シャスネットワーク(RMN)と、正確な$\log r$振舞いの極限安定な対数プリミティブを導入する。
RMNは閉形式空間勾配とラプラシアンを認めており、句読点の物理情報による学習を可能にしている。
10つの2Dおよび3Dベンチマークで、RMNは1.5$\times$-51$\times$低RMSE、10$\times$-100$\times$低RMSEは27のパラメータを使用しながらSIRENよりも10$\times$-100$\times$低RMSEを達成する。
我々は、RMNを角依存性(RMN- Angular)と学習可能な中心を持つ複数のソース(RMN-MC)に拡張する。
また,RMNの運用体制を緩和するために,スムーズで強い非放射的目標に対する制御障害を報告した。
関連論文リスト
- INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers [61.84396402100827]
本稿では,学習した補正を支配方程式に統合する間接ニューラルコレクタ(mathrmINC$)を提案する。
$mathrmINC$は、$t-1 + L$の順番でエラー増幅を減らし、$t$はタイムステップ、$L$はリプシッツ定数である。
大規模なベンチマークで$mathrmINC$をテストし、1Dカオスシステムから3D乱流まで、多くの異なる解法、神経バックボーン、テストケースをカバーした。
論文 参考訳(メタデータ) (2025-11-16T20:14:28Z) - Machine-Learning Accelerated Calculations of Reduced Density Matrices [0.3823356975862005]
我々は、ニューラルネットワーク(NN)アーキテクチャを用いて、大規模システムに対する$n$-RDMの計算を高速化し、予測することを提案する。
根底にある直感では、$n$-RDMはブリルアンゾーン(BZ)上の滑らかな関数であり、補間可能であるため、NNが小さな$n$-RDMで訓練して大きな関数を予測することができる。
論文 参考訳(メタデータ) (2025-11-10T18:23:34Z) - Trace Regularity PINNs: Enforcing $\mathrm{H}^{\frac{1}{2}}(\partial Ω)$ for Boundary Data [0.48342038441006796]
拡張物理インフォームドニューラルネットワーク(PINN)を提案する。
TRPINN(Trace Regularity Physics-Informed Neural Network)は、ソボレフ・スロボデックイノルム$H1/2(partial Omega)$における境界損失を強制する。
正確な$H1/2(partial Omega)$ノルムを組み込むことで、近似が$H1(Omega)$センスの真の解に収束することを示す。
論文 参考訳(メタデータ) (2025-10-19T13:08:16Z) - Neural PDE Solvers with Physics Constraints: A Comparative Study of PINNs, DRM, and WANs [1.131316248570352]
部分方程式 (PDE) は、科学や工学にまたがるモデルを支えるが、解析解は非定型であり、古典的なメッシュベースの解法は高次元でコストがかかる。
この論文は、3つのメッシュフリーニューラルネットワークPDEソルバ、物理インフォームドニューラルネットワーク(PINN)、ディープリッツ法(DRM)、弱い敵ネットワーク(WAN)、ポアソン問題(最大5D)と1D/2Dにおける時間非依存シュラーオーディンガー方程式の統一的な比較を提示する。
論文 参考訳(メタデータ) (2025-10-09T13:41:51Z) - VAE-DNN: Energy-Efficient Trainable-by-Parts Surrogate Model For Parametric Partial Differential Equations [49.1574468325115]
本稿では, 前方および逆パラメータ化非線形偏微分方程式を解くための, トレーニング可能な各部分サロゲートモデルを提案する。
提案手法はエンコーダを用いて高次元の入力$y(bmx)$を低次元の潜在空間である$bmmu_bmphi_y$に還元する。
完全連結ニューラルネットワークを用いて、Pの潜伏空間に$bmmu_bmphi_y$、$bmmu_bmphi_h$をマッピングする。
論文 参考訳(メタデータ) (2025-08-05T18:37:32Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - On the Magnetization of the $120^\circ$ order of the Spin-1/2 Triangular
Lattice Heisenberg Model: a DMRG revisit [0.552480439325792]
密度行列正規化群 (DMRG) を用いたスピン-1/2三角格子ハイゼンベルクモデル (TLHM) における120円オーダーの磁化問題を再検討する。
このモデルの磁化の正確な決定は数値計算法では困難であり、その値は様々な方法で大きな差異を示す。
論文 参考訳(メタデータ) (2023-10-18T08:08:06Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。