論文の概要: Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces
- arxiv url: http://arxiv.org/abs/2312.08461v1
- Date: Wed, 13 Dec 2023 19:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 02:57:38.614204
- Title: Space-Time Approximation with Shallow Neural Networks in Fourier
Lebesgue spaces
- Title(参考訳): フーリエ・ルベーグ空間における浅層ニューラルネットワークによる時空近似
- Authors: Ahmed Abdeljawad, Thomas Dittrich
- Abstract要約: ボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について検討する。
異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムのSNNによる近似の有界性を確立する。
- 参考スコア(独自算出の注目度): 1.74048653626208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximation capabilities of shallow neural networks (SNNs) form an integral
part in understanding the properties of deep neural networks (DNNs). In the
study of these approximation capabilities some very popular classes of target
functions are the so-called spectral Barron spaces. This spaces are of special
interest when it comes to the approximation of partial differential equation
(PDE) solutions. It has been shown that the solution of certain static PDEs
will lie in some spectral Barron space. In order to alleviate the limitation to
static PDEs and include a time-domain that might have a different regularity
than the space domain, we extend the notion of spectral Barron spaces to
anisotropic weighted Fourier-Lebesgue spaces. In doing so, we consider target
functions that have two blocks of variables, among which each block is allowed
to have different decay and integrability properties. For these target
functions we first study the inclusion of anisotropic weighted Fourier-Lebesgue
spaces in the Bochner-Sobolev spaces. With that we can now also measure the
approximation error in terms of an anisotropic Sobolev norm, namely the
Bochner-Sobolev norm. We use this observation in a second step where we
establish a bound on the approximation rate for functions from the anisotropic
weighted Fourier-Lebesgue spaces and approximation via SNNs in the
Bochner-Sobolev norm.
- Abstract(参考訳): 浅いニューラルネットワーク(SNN)の近似能力は、ディープニューラルネットワーク(DNN)の性質を理解する上で不可欠な部分を形成する。
これらの近似能力の研究において、対象関数の非常に人気のあるクラスはいわゆるスペクトルバロン空間である。
この空間は偏微分方程式(PDE)解の近似に関して特に興味深い。
ある種の静的PDEの解はある種のスペクトルバロン空間に存在することが示されている。
静的な pdes への制限を緩和し、空間領域と異なる正則性を持つ時間領域を含むために、スペクトルバロン空間の概念を異方性重み付きフーリエ・ルベーグ空間へと拡張する。
そのような場合、変数の2つのブロックを持つ対象関数について検討し、それぞれのブロックが異なる減衰と可積分性を持つことを許容する。
これらの対象函数に対して、まずボヒナー・ソボレフ空間における異方性重み付きフーリエ・ルベーグ空間の包含について研究する。
これにより、近似誤差を異方性ソボレフノルム、すなわちボヒナー・ソボレフノルムを用いて測定することができる。
我々はこの観測を、異方性重み付きフーリエ・ルベーグ空間からの関数の近似率とボヒナー・ソボレフノルムにおけるsnsによる近似のバウンドを定める第二のステップで用いる。
関連論文リスト
- Weighted Sobolev Approximation Rates for Neural Networks on Unbounded Domains [1.4732811715354452]
スペクトルバロン空間の関数に対する重み付きソボレフ空間における浅部ニューラルネットワークの近似能力を考察する。
まず、重み付きソボレフ空間におけるより一般的なフーリエ・ルベーグ空間に対する埋め込み結果を示し、次に、次元の呪いを伴わない浅層ニューラルネットワークに対する近似率を確立する。
論文 参考訳(メタデータ) (2024-11-06T18:36:21Z) - Learning the boundary-to-domain mapping using Lifting Product Fourier Neural Operators for partial differential equations [5.5927988408828755]
我々は、任意の境界関数を領域全体の解にマッピングできる新しいFNOベースのアーキテクチャ、Lifting Product FNO(LP-FNO)を提案する。
2次元ポアソン方程式に対して提案したLP-FNOの有効性と分解能の独立性を実証する。
論文 参考訳(メタデータ) (2024-06-24T15:45:37Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Correspondence between open bosonic systems and stochastic differential
equations [77.34726150561087]
ボゾン系が環境との相互作用を含むように一般化されたとき、有限$n$で正確な対応も可能であることを示す。
離散非線形シュル「オーディンガー方程式」の形をした特定の系をより詳細に分析する。
論文 参考訳(メタデータ) (2023-02-03T19:17:37Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Exponential Convergence of Deep Operator Networks for Elliptic Partial
Differential Equations [0.0]
楕円型二階PDEの係数対解写像の指数収束率でエミュレートする無限次元空間間の深い作用素ネットワーク(ONets)を構築する。
特に、$d$次元周期領域、$d=1, 2, dots$、分析右辺と係数に設定された問題を考える。
我々はONetのニューラルネットワークのサイズが$mathcalO(left|log(varepsilon)right|kappa)$であることを示す。
論文 参考訳(メタデータ) (2021-12-15T13:56:28Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Approximations with deep neural networks in Sobolev time-space [5.863264019032882]
進化方程式の解は一般に特定のボヒナー・ソボレフ空間にある。
ディープニューラルネットワークは、ボヒナー・ソボレフ空間に関してソボレフ正則関数を近似することができる。
論文 参考訳(メタデータ) (2020-12-23T22:21:05Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。