論文の概要: Algebraic function based Banach space valued ordinary and fractional
neural network approximations
- arxiv url: http://arxiv.org/abs/2202.07425v1
- Date: Fri, 11 Feb 2022 20:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 08:20:37.616387
- Title: Algebraic function based Banach space valued ordinary and fractional
neural network approximations
- Title(参考訳): 代数関数に基づくバナッハ空間値の正規および分数ニューラルネットワーク近似
- Authors: George A Anastassiou
- Abstract要約: 近似はポイントワイドで一様ノルムです
関連するバナッハ空間値フィードフォワードニューラルネットワークは、1つの隠蔽層を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Here we research the univariate quantitative approximation, ordinary and
fractional, of Banach space valued continuous functions on a compact interval
or all the real line by quasi-interpolation Banach space valued neural network
operators. These approximations are derived by establishing Jackson type
inequalities involving the modulus of continuity of the engaged function or its
Banach space valued high order derivative of fractional derivatives. Our
operators are defined by using a density function generated by an algebraic
sigmoid function. The approximations are pointwise and of the uniform norm. The
related Banach space valued feed-forward neural networks are with one hidden
layer.
- Abstract(参考訳): ここでは、半補間バナッハ空間値付きニューラルネットワーク演算子を用いて、コンパクト区間またはすべての実数直線上のバナッハ空間値連続関数の非定値な近似、正規および分数について研究する。
これらの近似は、係合関数の連続性のモジュラーや分数微分の高次導関数のバナッハ空間を含むジャクソン型不等式を確立することによって導かれる。
作用素は代数的シグモイド関数によって生成される密度関数を用いて定義される。
近似はポイントワイズであり、一様ノルムである。
関連するバナッハ空間値フィードフォワードニューラルネットワークは、1つの隠蔽層を持つ。
関連論文リスト
- The Tempered Hilbert Simplex Distance and Its Application To Non-linear
Embeddings of TEMs [36.135201624191026]
負のテンパー付きエントロピー関数のルジャンドル関数を介して、有限離散TEMの3つの異なるパラメータ化を導入する。
ヒルベルト幾何学と同様に、テンパードヒルベルト距離は、向き付けられたテンパードファンク距離の$t$-対称性として特徴づけられる。
論文 参考訳(メタデータ) (2023-11-22T15:24:29Z) - Convex Bounds on the Softmax Function with Applications to Robustness
Verification [69.09991317119679]
ソフトマックス関数は、ニューラルネットワークの出力においてユビキタスなコンポーネントであり、中間層もますます多くなっている。
本稿では,ニューラルネットワークや他のMLモデルのキャラクタリゼーションのための凸最適化式と互換性のある,ソフトマックス関数上の凸下界と凹上界を提供する。
論文 参考訳(メタデータ) (2023-03-03T05:07:02Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back [114.01902073621577]
畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
論文 参考訳(メタデータ) (2022-10-26T21:55:45Z) - Neural and spectral operator surrogates: unified construction and
expression rate bounds [0.46040036610482665]
無限次元関数空間間の写像の深い代理に対する近似速度について検討する。
関数空間からの演算子 in-および出力は、安定なアフィン表現系によってパラメータ化される。
論文 参考訳(メタデータ) (2022-07-11T15:35:14Z) - Sobolev-type embeddings for neural network approximation spaces [5.863264019032882]
近似可能な速度に応じて関数を分類するニューラルネットワーク近似空間を考察する。
p$の異なる値に対して、これらの空間間の埋め込み定理を証明する。
古典函数空間の場合と同様、可積分性を高めるために「滑らかさ」(すなわち近似率)を交換できる。
論文 参考訳(メタデータ) (2021-10-28T17:11:38Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Non-asymptotic approximations of neural networks by Gaussian processes [7.56714041729893]
ランダムな重みを持つ場合、ガウス過程によって広いニューラルネットワークが近似される程度を研究する。
ネットワークの幅が無限大になるにつれて、その法則はガウス過程に収束する。
論文 参考訳(メタデータ) (2021-02-17T10:19:26Z) - Approximation with Neural Networks in Variable Lebesgue Spaces [1.0152838128195465]
本稿では、可変ルベーグ空間におけるニューラルネットワークによる普遍近似特性について述べる。
空間の指数関数が有界となると、任意の所望の精度で全ての関数を浅いニューラルネットワークで近似できることを示す。
論文 参考訳(メタデータ) (2020-07-08T14:52:48Z) - Space of Functions Computed by Deep-Layered Machines [74.13735716675987]
深層ニューラルネットワークやブール回路を含むランダム層マシンによって計算される関数の空間について検討する。
繰り返しおよび層依存アーキテクチャ上で計算されたブール関数の分布を調べた結果、両方のモデルで同じであることが判明した。
論文 参考訳(メタデータ) (2020-04-19T18:31:03Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。