論文の概要: A Machine Learning Approach to the Nirenberg Problem
- arxiv url: http://arxiv.org/abs/2602.12368v1
- Date: Thu, 12 Feb 2026 19:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.730019
- Title: A Machine Learning Approach to the Nirenberg Problem
- Title(参考訳): ニレンバーグ問題に対する機械学習アプローチ
- Authors: Gianfranco Cortés, Maria Esteban-Casadevall, Yueqing Feng, Jonas Henkel, Edward Hirst, Tancredi Schettini Gherardini, Alexander G. Stapleton,
- Abstract要約: この研究は、円メートル法に直交する測度に対して$S2$でガウス曲率を規定するニレンバーグ問題に数値的アプローチを導入する。
我々のメッシュフリー物理インフォームドニューラルネットワーク(PINN)アプローチは、この共形因子を直接パラメタライズし、曲率方程式を強制する幾何学的損失で訓練する。
既知実現性のある所定の曲率では、ニューラルネットワークは非常に低い損失(10-7 - 10-10$)を達成する。
- 参考スコア(独自算出の注目度): 33.85242816821759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces the Nirenberg Neural Network: a numerical approach to the Nirenberg problem of prescribing Gaussian curvature on $S^2$ for metrics that are pointwise conformal to the round metric. Our mesh-free physics-informed neural network (PINN) approach directly parametrises the conformal factor globally and is trained with a geometry-aware loss enforcing the curvature equation. Additional consistency checks were performed via the Gauss-Bonnet theorem, and spherical-harmonic expansions were fit to the learnt models to provide interpretability. For prescribed curvatures with known realisability, the neural network achieves very low losses ($10^{-7} - 10^{-10}$), while unrealisable curvatures yield significantly higher losses. This distinction enables the assessment of unknown cases, separating likely realisable functions from non-realisable ones. The current capabilities of the Nirenberg Neural Network demonstrate that neural solvers can serve as exploratory tools in geometric analysis, offering a quantitative computational perspective on longstanding existence questions.
- Abstract(参考訳): この研究は、ニレンバーグニューラルネットワーク(Nirenberg Neural Network)を導入し、円メートル法に直交する測度に対して、$S^2$のガウス曲率を規定するニレンバーグ問題に対する数値的アプローチを紹介した。
我々のメッシュフリー物理インフォームドニューラルネットワーク(PINN)アプローチは、この共形因子を直接パラメタライズし、曲率方程式を強制する幾何学的損失で訓練する。
ガウス・ボンネットの定理によって追加の整合性チェックが行われ、球-調和展開は解釈可能性を提供する学習モデルに適合した。
既知実現性のある所定の曲率では、ニューラルネットワークは非常に低い損失(10^{-7} - 10^{-10}$)を達成し、計算不能な曲率は非常に高い損失をもたらす。
この区別は未知のケースの評価を可能にし、実現不可能な機能と非可解な機能とを区別する。
Nirenberg Neural Networkの現在の能力は、ニューラルネットワークが幾何学解析の探索ツールとして機能し、長年存在する問題に対する定量的な計算的視点を提供することを示している。
関連論文リスト
- GoRINNs: Godunov-Riemann Informed Neural Networks for Learning Hyperbolic Conservation Laws [0.6874745415692135]
GoRINNsは、高解像度のGoduovスキームに基づくハイブリッド/ブレンド機械学習スキームである。
GoRINNは、数値支援された浅層ニューラルネットワークに基づいて、個々の保存法則のクロージャを学習する。
論文 参考訳(メタデータ) (2024-10-29T16:31:40Z) - Dimension-independent learning rates for high-dimensional classification
problems [53.622581586464634]
各RBV2$関数は、重みが有界なニューラルネットワークによって近似可能であることを示す。
次に、分類関数を近似した有界重みを持つニューラルネットワークの存在を証明する。
論文 参考訳(メタデータ) (2024-09-26T16:02:13Z) - Grokking Beyond Neural Networks: An Empirical Exploration with Model Complexity [0.0]
いくつかの設定では、ニューラルネットワークはTextitgrokkingと呼ばれる現象を示し、トレーニングセットで同じパフォーマンスが達成されてからずっと経ってから、検証セット上で完璧またはほぼ完璧に精度を達成している。
本稿では,グルーキングがニューラルネットワークに限らず,GP分類,GP回帰,線形回帰,ベイズニューラルネットワークなどの他の設定で発生することを明らかにする。
論文 参考訳(メタデータ) (2023-10-26T08:47:42Z) - Deep Quantum Neural Networks are Gaussian Process [0.0]
1/d$展開を用いて閉形式関係における有限幅の影響を調べる枠組みを提案する。
量子ニューラルタンジェントカーネル(QNTK)を特徴とするGPとそのパラメータ空間の等価性について解明する。
論文 参考訳(メタデータ) (2023-05-22T03:07:43Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - On Convergence of Training Loss Without Reaching Stationary Points [62.41370821014218]
ニューラルネットワークの重み変数は、損失関数の勾配が消える定常点に収束しないことを示す。
エルゴード理論の力学系に基づく新しい視点を提案する。
論文 参考訳(メタデータ) (2021-10-12T18:12:23Z) - When and why PINNs fail to train: A neural tangent kernel perspective [2.1485350418225244]
PINNのニューラルタンジェントカーネル(NTK)を導出し、適切な条件下では、無限幅極限でのトレーニング中に一定となる決定論的カーネルに収束することを示す。
学習誤差の総和に寄与する損失成分の収束率に顕著な差があることが判明した。
本研究では,NTKの固有値を用いて学習誤差の収束率を適応的に調整する勾配降下アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-28T23:44:56Z) - A Generalized Neural Tangent Kernel Analysis for Two-layer Neural
Networks [87.23360438947114]
重み劣化を伴う雑音勾配降下は依然として「カーネル様」の挙動を示すことを示す。
これは、トレーニング損失が一定の精度まで線形に収束することを意味する。
また,重み劣化を伴う雑音勾配勾配勾配で学習した2層ニューラルネットワークに対して,新しい一般化誤差を確立する。
論文 参考訳(メタデータ) (2020-02-10T18:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。