論文の概要: The Vekua Layer: Exact Physical Priors for Implicit Neural Representations via Generalized Analytic Functions
- arxiv url: http://arxiv.org/abs/2512.11138v1
- Date: Thu, 11 Dec 2025 21:57:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.581728
- Title: The Vekua Layer: Exact Physical Priors for Implicit Neural Representations via Generalized Analytic Functions
- Title(参考訳): ヴェクア層:一般解析機能による神経表現の物理的優位性
- Authors: Vladimer Khasia,
- Abstract要約: Inlicit Neural Representations (INR)は、物理場をパラメータ化するための強力なパラダイムとして登場した。
一般化分析理論に基づく微分スペクトル法を導入する。
本手法は物理インフォームドスペクトルフィルタとして効果的に機能することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as a powerful paradigm for parameterizing physical fields, yet they often suffer from spectral bias and the computational expense of non-convex optimization. We introduce the Vekua Layer (VL), a differentiable spectral method grounded in the classical theory of Generalized Analytic Functions. By restricting the hypothesis space to the kernel of the governing differential operator -- specifically utilizing Harmonic and Fourier-Bessel bases -- the VL transforms the learning task from iterative gradient descent to a strictly convex least-squares problem solved via linear projection. We evaluate the VL against Sinusoidal Representation Networks (SIRENs) on homogeneous elliptic Partial Differential Equations (PDEs). Our results demonstrate that the VL achieves machine precision ($\text{MSE} \approx 10^{-33}$) on exact reconstruction tasks and exhibits superior stability in the presence of incoherent sensor noise ($\text{MSE} \approx 0.03$), effectively acting as a physics-informed spectral filter. Furthermore, we show that the VL enables "holographic" extrapolation of global fields from partial boundary data via analytic continuation, a capability absent in standard coordinate-based approximations.
- Abstract(参考訳): Inlicit Neural Representations (INR) は物理場をパラメータ化するための強力なパラダイムとして登場したが、しばしばスペクトルバイアスと非凸最適化の計算コストに悩まされる。
本稿では、一般化解析関数の古典的理論に基づく微分可能なスペクトル法であるVekua Layer (VL)を紹介する。
理論空間を支配微分作用素の核(特にハーモニックとフーリエ・ベッセルの基底を利用する)に制限することにより、VLは学習タスクを反復勾配降下から線形射影によって解決された厳密な凸最小二乗問題へと変換する。
等質楕円型偏微分方程式(PDE)を用いて,正弦波表現ネットワーク(SIREN)に対するVLの評価を行った。
以上の結果から,VLは正確な再構成作業において機械精度($\text{MSE} \approx 10^{-33}$)を達成し,非コヒーレントセンサノイズ($\text{MSE} \approx 0.03$)の存在下で優れた安定性を示し,物理インフォームドスペクトルフィルタとして効果的に機能することを示した。
さらに、VLは、解析的連続による部分境界データからグローバルフィールドの「ホログラフィック」な外挿を可能にすることを示し、これは標準座標に基づく近似に欠落する機能である。
関連論文リスト
- Analysis of Fourier Neural Operators via Effective Field Theory [11.824913874212802]
無限次元関数空間におけるFNOの体系的有効場理論解析について述べる。
非線形な活性化は、必然的に周波数入力を周波数モードに分割し、それ以外はスペクトル乱れによって破棄されることを示す。
本研究は, 非線形性によってニューラル演算子が非自明な特徴を捉えることができることの定量化と, スケール不変なアクティベーションと残差接続がFNOにおける特徴学習を促進する理由を説明するものである。
論文 参考訳(メタデータ) (2025-07-29T14:10:46Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - On the Identification and Optimization of Nonsmooth Superposition
Operators in Semilinear Elliptic PDEs [3.045851438458641]
原型半線形楕円偏微分方程式(PDE)の非線形部分におけるネミトスキー作用素の同定を目的とした無限次元最適化問題について検討する。
以前の研究とは対照的に、ネミトスキー作用素を誘導する関数が a-priori であることは、$H leakyloc(mathbbR)$ の要素であることが知られている。
論文 参考訳(メタデータ) (2023-06-08T13:33:20Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - Implicit Bias of MSE Gradient Optimization in Underparameterized Neural
Networks [0.0]
勾配流による平均二乗誤差の最適化において,関数空間におけるニューラルネットワークのダイナミクスについて検討する。
ニューラルタンジェントカーネル(NTK)により決定された積分作用素$T_Kinfty$の固有関数をネットワークが学習することを示す。
減衰偏差は2乗誤差を最適化する際の力学の単純かつ統一的な視点を与えると結論付けている。
論文 参考訳(メタデータ) (2022-01-12T23:28:41Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。