論文の概要: Rates and architectures for learning geometrically non-trivial operators
- arxiv url: http://arxiv.org/abs/2512.09376v1
- Date: Wed, 10 Dec 2025 07:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.429627
- Title: Rates and architectures for learning geometrically non-trivial operators
- Title(参考訳): 幾何学的に非自明な作用素の学習率とアーキテクチャ
- Authors: T. Mitchell Roddenberry, Leo Tzou, Ivan Dokmanić, Maarten V. de Hoop, Richard G. Baraniuk,
- Abstract要約: 深層学習法は、非常に少数のトレーニングサンプルから高次元空間間の演算子を復元できることが証明されている。
一般のラドン変換や測地線変換を含む幾何学的積分作用素を、二重フィブレーション変換を含むように学習理論を拡張した。
この結果は、科学機械学習のための学習オペレーターに関する理論研究の急速な発展に寄与する。
- 参考スコア(独自算出の注目度): 29.400357098551495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have proven capable of recovering operators between high-dimensional spaces, such as solution maps of PDEs and similar objects in mathematical physics, from very few training samples. This phenomenon of data-efficiency has been proven for certain classes of elliptic operators with simple geometry, i.e., operators that do not change the domain of the function or propagate singularities. However, scientific machine learning is commonly used for problems that do involve the propagation of singularities in a priori unknown ways, such as waves, advection, and fluid dynamics. In light of this, we expand the learning theory to include double fibration transforms--geometric integral operators that include generalized Radon and geodesic ray transforms. We prove that this class of operators does not suffer from the curse of dimensionality: the error decays superalgebraically, that is, faster than any fixed power of the reciprocal of the number of training samples. Furthermore, we investigate architectures that explicitly encode the geometry of these transforms, demonstrating that an architecture reminiscent of cross-attention based on levelset methods yields a parameterization that is universal, stable, and learns double fibration transforms from very few training examples. Our results contribute to a rapidly-growing line of theoretical work on learning operators for scientific machine learning.
- Abstract(参考訳): 深層学習法は、数理物理学におけるPDEの解写像や類似の物体などの高次元空間間の演算子を、ごく少数のトレーニングサンプルから復元できることが証明されている。
データ効率性のこの現象は、単純な幾何学を持つ楕円作用素のある種のクラス、すなわち関数の領域を変更したり特異点を伝播したりしない作用素に対して証明されている。
しかし、科学機械学習は、波動、対流、流体力学などの未知の方法で特異点の伝播に関わる問題に対して一般的に用いられる。
これを踏まえ、我々は学習理論を拡張し、一般化されたラドンや測地線変換を含む幾何学的積分作用素を2重フィブレーション変換を含む。
このタイプの作用素は次元性の呪いに苦しめられず、誤差は超代数的に崩壊し、すなわち、トレーニングサンプル数の逆数の任意の固定パワーよりも速くなる。
さらに、これらの変換の幾何を明示的に符号化するアーキテクチャについて検討し、レベレット法に基づくクロスアテンションを連想させるアーキテクチャが、普遍的で安定なパラメータ化をもたらすことを示すとともに、ごく少数のトレーニング例から二重フィブレーション変換を学習する。
この結果は、科学機械学習のための学習オペレーターに関する理論研究の急速な発展に寄与する。
関連論文リスト
- An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - Efficient Training for Optical Computing [0.0]
本稿では,フーリエ変換による平面波の分解を取り入れた新しいバックプロパゲーションアルゴリズムを提案する。
学習・推論において,拡散系の構造的・疎結合性を生かし,トレーニング時間の大幅な短縮を図った。
論文 参考訳(メタデータ) (2025-06-25T21:03:47Z) - Manifold Learning with Normalizing Flows: Towards Regularity, Expressivity and Iso-Riemannian Geometry [8.020732438595905]
この研究は、マルチモーダル設定で発生する歪みやモデリングエラーに対処することに焦点を当てている。
本稿では,合成データと実データの両方を用いた数値実験において,提案手法の相乗効果を示す。
論文 参考訳(メタデータ) (2025-05-12T21:44:42Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。