論文の概要: Operator learning with PCA-Net: upper and lower complexity bounds
- arxiv url: http://arxiv.org/abs/2303.16317v5
- Date: Fri, 13 Oct 2023 22:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 05:38:02.815589
- Title: Operator learning with PCA-Net: upper and lower complexity bounds
- Title(参考訳): PCA-Netによる演算子学習--上と下の境界
- Authors: Samuel Lanthaler
- Abstract要約: PCA-Netは、主成分分析とニューラルネットワークを組み合わせた、最近提案されたニューラルネットワークアーキテクチャである。
基礎作用素に対する最小の仮定の下で、新しい普遍近似結果が導出される。
PCA-Netは、ダーシー流とナビエ・ストークス方程式から生じる特定の興味を持つ演算子の一般的な呪いを克服することができる。
- 参考スコア(独自算出の注目度): 2.375038919274297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PCA-Net is a recently proposed neural operator architecture which combines
principal component analysis (PCA) with neural networks to approximate
operators between infinite-dimensional function spaces. The present work
develops approximation theory for this approach, improving and significantly
extending previous work in this direction: First, a novel universal
approximation result is derived, under minimal assumptions on the underlying
operator and the data-generating distribution. Then, two potential obstacles to
efficient operator learning with PCA-Net are identified, and made precise
through lower complexity bounds; the first relates to the complexity of the
output distribution, measured by a slow decay of the PCA eigenvalues. The other
obstacle relates to the inherent complexity of the space of operators between
infinite-dimensional input and output spaces, resulting in a rigorous and
quantifiable statement of a "curse of parametric complexity", an
infinite-dimensional analogue of the well-known curse of dimensionality
encountered in high-dimensional approximation problems. In addition to these
lower bounds, upper complexity bounds are finally derived. A suitable
smoothness criterion is shown to ensure an algebraic decay of the PCA
eigenvalues. Furthermore, it is shown that PCA-Net can overcome the general
curse for specific operators of interest, arising from the Darcy flow and the
Navier-Stokes equations.
- Abstract(参考訳): PCA-Netは、ニューラルネットワークと主成分分析(PCA)を組み合わせて、無限次元関数空間間の近似演算子を提案する。
本研究は, 基礎となる演算子とデータ生成分布について最小限の仮定の下で, 新たな普遍近似結果が導出される。
次に、PCA-Netを用いた効率的な演算子学習のための2つの潜在的障害を特定し、より低い複雑性境界を通して正確にし、第1に、PCA固有値の緩やかな減衰によって測定された出力分布の複雑さに関連する。
もう一つの障害は、無限次元の入力空間と出力空間の間の作用素の空間の本質的な複雑さに関係しており、結果として高次元近似問題でよく知られた次元の呪いの無限次元の類似である「パラメトリックの複雑さの曲線」の厳密で定量的な記述をもたらす。
これらの下限に加えて、上述の複雑性境界が導かれる。
PCA固有値の代数的減衰を確実にするために、適切な滑らか度基準を示す。
さらに、PCA-Netは、ダーシー流とナビエ・ストークス方程式から生じる特定の興味を持つ演算子の一般的な呪いを克服できることを示した。
関連論文リスト
- Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - Support Recovery in Sparse PCA with Non-Random Missing Data [27.3669650952144]
非ランダムサンプリング方式の下で,不完全かつノイズの多いデータに基づいてスパースPCAの実用的なアルゴリズムを解析する。
理論的には、ある条件下では、スパースリード固有ベクトルの支持を高い確率で回復することができる。
提案アルゴリズムは, 観察された成分が良好な構造特性を持つ場合, その他のスパースPCA手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-03T04:20:25Z) - Asymptotically Unbiased Instance-wise Regularized Partial AUC
Optimization: Theory and Algorithm [101.44676036551537]
One-way partial AUC (OPAUC) と Two-way partial AUC (TPAUC) はバイナリ分類器の平均性能を測定する。
既存の手法のほとんどはPAUCをほぼ最適化するしかなく、制御不能なバイアスにつながる。
本稿では,分散ロバスト最適化AUCによるPAUC問題の簡易化について述べる。
論文 参考訳(メタデータ) (2022-10-08T08:26:22Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Controlling the Complexity and Lipschitz Constant improves polynomial
nets [55.121200972539114]
多項式ネットの結合CP分解(CCP)モデルとNested Coupled CP分解(NCP)モデルに対する新しい複雑性境界を導出する。
本研究では、6つのデータセットで実験的に評価し、モデルが逆摂動に対して頑健であるとともに精度も向上することを示す。
論文 参考訳(メタデータ) (2022-02-10T14:54:29Z) - A Linearly Convergent Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
本稿では,1時間スケール分散pcaアルゴリズムである分散sanger's algorithm(dsa)を提案する。
提案アルゴリズムは真の解の近傍に線形収束することを示した。
論文 参考訳(メタデータ) (2021-01-05T00:51:14Z) - Approximation Algorithms for Sparse Principal Component Analysis [57.5357874512594]
主成分分析(PCA)は、機械学習と統計学において広く使われている次元削減手法である。
スパース主成分分析(Sparse principal Component Analysis)と呼ばれる,スパース主成分負荷を求める様々な手法が提案されている。
本研究では,SPCA問題に対するしきい値の精度,時間,近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-23T04:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。