論文の概要: Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces
- arxiv url: http://arxiv.org/abs/2312.08461v1
- Date: Wed, 13 Dec 2023 19:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 02:57:38.614204
- Title: Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces
- Title(参考訳): フーリエ・ルベーグ空間における浅層ニューラルネットワークによる時空近似
- Authors: Ahmed Abdeljawad, Thomas Dittrich
- Abstract要約: ボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について検討する。
異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムのSNNによる近似の有界性を確立する。
- 参考スコア(独自算出の注目度): 1.74048653626208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximation capabilities of shallow neural networks (SNNs) form an integral
part in understanding the properties of deep neural networks (DNNs). In the
study of these approximation capabilities some very popular classes of target
functions are the so-called spectral Barron spaces. This spaces are of special
interest when it comes to the approximation of partial differential equation
(PDE) solutions. It has been shown that the solution of certain static PDEs
will lie in some spectral Barron space. In order to alleviate the limitation to
static PDEs and include a time-domain that might have a different regularity
than the space domain, we extend the notion of spectral Barron spaces to
anisotropic weighted Fourier-Lebesgue spaces. In doing so, we consider target
functions that have two blocks of variables, among which each block is allowed
to have different decay and integrability properties. For these target
functions we first study the inclusion of anisotropic weighted Fourier-Lebesgue
spaces in the Bochner-Sobolev spaces. With that we can now also measure the
approximation error in terms of an anisotropic Sobolev norm, namely the
Bochner-Sobolev norm. We use this observation in a second step where we
establish a bound on the approximation rate for functions from the anisotropic
weighted Fourier-Lebesgue spaces and approximation via SNNs in the
Bochner-Sobolev norm.
- Abstract(参考訳): 浅いニューラルネットワーク(SNN)の近似能力は、ディープニューラルネットワーク(DNN)の性質を理解する上で不可欠な部分を形成する。
これらの近似能力の研究において、対象関数の非常に人気のあるクラスはいわゆるスペクトルバロン空間である。
この空間は偏微分方程式(PDE)解の近似に関して特に興味深い。
ある種の静的PDEの解はある種のスペクトルバロン空間に存在することが示されている。
静的な pdes への制限を緩和し、空間領域と異なる正則性を持つ時間領域を含むために、スペクトルバロン空間の概念を異方性重み付きフーリエ・ルベーグ空間へと拡張する。
そのような場合、変数の2つのブロックを持つ対象関数について検討し、それぞれのブロックが異なる減衰と可積分性を持つことを許容する。
これらの対象函数に対して、まずボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について研究する。
これにより、近似誤差を異方性ソボレフノルム、すなわちボヒナー・ソボレフノルムを用いて測定することができる。
我々はこの観測を、異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムにおけるsnsによる近似のバウンドを定める第二のステップで用いる。
関連論文リスト
- Correspondence between open bosonic systems and stochastic differential
equations [77.34726150561087]
ボゾン系が環境との相互作用を含むように一般化されたとき、有限$n$で正確な対応も可能であることを示す。
離散非線形シュル「オーディンガー方程式」の形をした特定の系をより詳細に分析する。
論文 参考訳(メタデータ) (2023-02-03T19:17:37Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Sobolev Spaces, Kernels and Discrepancies over Hyperspheres [4.521119623956821]
この研究は超球面文脈におけるカーネルメソッドの理論基盤を提供する。
超球面上で定義されたカーネルに付随するネイティブ空間(再生カーネルヒルベルト空間)とソボレフ空間を特徴付ける。
その結果,カーネルキュウチュアの直接的影響,最悪のケースエラーの収束率の決定,およびキュウチュアアルゴリズムの適用性の向上が得られた。
論文 参考訳(メタデータ) (2022-11-16T20:31:38Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Exponential Convergence of Deep Operator Networks for Elliptic Partial
Differential Equations [0.0]
楕円型二階PDEの係数対解写像の指数収束率でエミュレートする無限次元空間間の深い作用素ネットワーク(ONets)を構築する。
特に、$d$次元周期領域、$d=1, 2, dots$、分析右辺と係数に設定された問題を考える。
我々はONetのニューラルネットワークのサイズが$mathcalO(left|log(varepsilon)right|kappa)$であることを示す。
論文 参考訳(メタデータ) (2021-12-15T13:56:28Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Approximations with deep neural networks in Sobolev time-space [5.863264019032882]
進化方程式の解は一般に特定のボヒナー・ソボレフ空間にある。
ディープニューラルネットワークは、ボヒナー・ソボレフ空間に関してソボレフ正則関数を近似することができる。
論文 参考訳(メタデータ) (2020-12-23T22:21:05Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Approximation with Neural Networks in Variable Lebesgue Spaces [1.0152838128195465]
本稿では、可変ルベーグ空間におけるニューラルネットワークによる普遍近似特性について述べる。
空間の指数関数が有界となると、任意の所望の精度で全ての関数を浅いニューラルネットワークで近似できることを示す。
論文 参考訳(メタデータ) (2020-07-08T14:52:48Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。