論文の概要: Rates and architectures for learning geometrically non-trivial operators
- arxiv url: http://arxiv.org/abs/2512.09376v1
- Date: Wed, 10 Dec 2025 07:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.429627
- Title: Rates and architectures for learning geometrically non-trivial operators
- Title(参考訳): 幾何学的に非自明な作用素の学習率とアーキテクチャ
- Authors: T. Mitchell Roddenberry, Leo Tzou, Ivan Dokmanić, Maarten V. de Hoop, Richard G. Baraniuk,
- Abstract要約: 深層学習法は、非常に少数のトレーニングサンプルから高次元空間間の演算子を復元できることが証明されている。
一般のラドン変換や測地線変換を含む幾何学的積分作用素を、二重フィブレーション変換を含むように学習理論を拡張した。
この結果は、科学機械学習のための学習オペレーターに関する理論研究の急速な発展に寄与する。
- 参考スコア(独自算出の注目度): 29.400357098551495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have proven capable of recovering operators between high-dimensional spaces, such as solution maps of PDEs and similar objects in mathematical physics, from very few training samples. This phenomenon of data-efficiency has been proven for certain classes of elliptic operators with simple geometry, i.e., operators that do not change the domain of the function or propagate singularities. However, scientific machine learning is commonly used for problems that do involve the propagation of singularities in a priori unknown ways, such as waves, advection, and fluid dynamics. In light of this, we expand the learning theory to include double fibration transforms--geometric integral operators that include generalized Radon and geodesic ray transforms. We prove that this class of operators does not suffer from the curse of dimensionality: the error decays superalgebraically, that is, faster than any fixed power of the reciprocal of the number of training samples. Furthermore, we investigate architectures that explicitly encode the geometry of these transforms, demonstrating that an architecture reminiscent of cross-attention based on levelset methods yields a parameterization that is universal, stable, and learns double fibration transforms from very few training examples. Our results contribute to a rapidly-growing line of theoretical work on learning operators for scientific machine learning.
- Abstract(参考訳): 深層学習法は、数理物理学におけるPDEの解写像や類似の物体などの高次元空間間の演算子を、ごく少数のトレーニングサンプルから復元できることが証明されている。
データ効率性のこの現象は、単純な幾何学を持つ楕円作用素のある種のクラス、すなわち関数の領域を変更したり特異点を伝播したりしない作用素に対して証明されている。
しかし、科学機械学習は、波動、対流、流体力学などの未知の方法で特異点の伝播に関わる問題に対して一般的に用いられる。
これを踏まえ、我々は学習理論を拡張し、一般化されたラドンや測地線変換を含む幾何学的積分作用素を2重フィブレーション変換を含む。
このタイプの作用素は次元性の呪いに苦しめられず、誤差は超代数的に崩壊し、すなわち、トレーニングサンプル数の逆数の任意の固定パワーよりも速くなる。
さらに、これらの変換の幾何を明示的に符号化するアーキテクチャについて検討し、レベレット法に基づくクロスアテンションを連想させるアーキテクチャが、普遍的で安定なパラメータ化をもたらすことを示すとともに、ごく少数のトレーニング例から二重フィブレーション変換を学習する。
この結果は、科学機械学習のための学習オペレーターに関する理論研究の急速な発展に寄与する。
関連論文リスト
- Structural Disentanglement in Bilinear MLPs via Architectural Inductive Bias [0.0]
我々は、モデルがトレーニング中に内部表現をどのように構成するかから失敗が発生すると主張している。
線形パラメータ化は勾配流条件下での非混合特性を有することを示す。
ポイントワイズ非線形ネットワークとは異なり、乗法的アーキテクチャは、基礎となる代数構造と整合した真の作用素を復元することができる。
論文 参考訳(メタデータ) (2026-02-05T13:14:01Z) - Geometric Laplace Neural Operator [12.869633759181417]
本稿では指数基底関数に富んだ極-極分解に基づく一般化された演算子学習フレームワークを提案する。
本稿では,ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだGLNO(Geometric Laplace Neural Operator)を紹介する。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
論文 参考訳(メタデータ) (2025-12-18T11:07:41Z) - Fourier Neural Operators Explained: A Practical Perspective [75.12291469255794]
フーリエ・ニューラル・オペレータ(FNO)は、そのエレガントなスペクトル定式化により最も影響力があり広く採用されている。
本ガイドは,FNOを多種多様な科学・工学分野に効果的に適用するための,明確かつ信頼性の高い枠組みを確立することを目的とする。
論文 参考訳(メタデータ) (2025-12-01T08:56:21Z) - An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - Efficient Training for Optical Computing [0.0]
本稿では,フーリエ変換による平面波の分解を取り入れた新しいバックプロパゲーションアルゴリズムを提案する。
学習・推論において,拡散系の構造的・疎結合性を生かし,トレーニング時間の大幅な短縮を図った。
論文 参考訳(メタデータ) (2025-06-25T21:03:47Z) - Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - Manifold Learning with Normalizing Flows: Towards Regularity, Expressivity and Iso-Riemannian Geometry [8.020732438595905]
この研究は、マルチモーダル設定で発生する歪みやモデリングエラーに対処することに焦点を当てている。
本稿では,合成データと実データの両方を用いた数値実験において,提案手法の相乗効果を示す。
論文 参考訳(メタデータ) (2025-05-12T21:44:42Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。