論文の概要: Schauder Bases for $C[0, 1]$ Using ReLU, Softplus and Two Sigmoidal Functions
- arxiv url: http://arxiv.org/abs/2506.07884v1
- Date: Mon, 09 Jun 2025 15:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.032413
- Title: Schauder Bases for $C[0, 1]$ Using ReLU, Softplus and Two Sigmoidal Functions
- Title(参考訳): ReLU, Softplus, Two Sigmoidal Function を用いた$C[0, 1]$のシャウダー基底
- Authors: Anand Ganesh, Babhrubahan Bose, Anand Rajagopalan,
- Abstract要約: 空間$C[0,1]$のシューダー基底を4つ構築し、一方はReLU関数を使い、もう一方はSoftplus関数を使い、もう一方はReLU関数とSoftplus関数のシグモダルバージョンを使う。
これにより、これらの関数を初めて使用する基底の存在が確立され、それらに関連する普遍近似特性が向上する。
- 参考スコア(独自算出の注目度): 1.8008841825105588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We construct four Schauder bases for the space $C[0,1]$, one using ReLU functions, another using Softplus functions, and two more using sigmoidal versions of the ReLU and Softplus functions. This establishes the existence of a basis using these functions for the first time, and improves on the universal approximation property associated with them.
- Abstract(参考訳): 空間$C[0,1]$のシューダー基底を4つ構築し、一方はReLU関数を使い、もう一方はSoftplus関数を使い、もう一方はReLU関数とSoftplus関数のシグモダルバージョンを使う。
これにより、これらの関数を初めて使用する基底の存在が確立され、それらに関連する普遍近似特性が向上する。
関連論文リスト
- Expanded Gating Ranges Improve Activation Functions [0.0]
拡張ArcTanリニアユニット(xATLU)、拡張GELU(xGELU)、拡張SiLU(xSiLU)は、トランスアーキテクチャ内の既存のアクティベーション関数より優れていることがわかった。
また、拡張ゲーティング範囲は1次ゲーティング線形ユニット(GLU)の改善に有望な結果を示すことも示している。
論文 参考訳(メタデータ) (2024-05-25T09:12:17Z) - Nonsmooth Nonparametric Regression via Fractional Laplacian Eigenmaps [15.738019181349992]
真の回帰関数が必ずしも滑らかでない場合に、非パラメトリック回帰法を開発する。
より具体的には、我々のアプローチは分数ラプラシアンを使い、真の回帰関数が次数$sin (0,1)$のソボレフ空間にある場合を扱うように設計されている。
論文 参考訳(メタデータ) (2024-02-22T21:47:29Z) - Expressive power of binary and ternary neural networks [91.3755431537592]
3次重みを持つ深いスパースReLUネットワークと2次重みを持つ深いReLUネットワークは、[0,1]d$上の$beta$-H"古い関数を近似できることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:16:08Z) - ReLU Network Approximation in Terms of Intrinsic Parameters [5.37133760455631]
固有パラメータ数の観点からReLUネットワークの近似誤差について検討する。
我々は、3つの固有パラメータしか持たないReLUネットワークを設計し、任意の誤差でH"古い連続関数を近似する。
論文 参考訳(メタデータ) (2021-11-15T18:20:38Z) - SAU: Smooth activation function using convolution with approximate
identities [1.5267236995686555]
ReLU や Leaky ReLU のようなよく知られた活性化関数は原点において微分不可能である。
そこで本研究では, 微分不可能なアクティベーション関数を近似IDで結合することで, 新たなスムーズな近似式を提案する。
論文 参考訳(メタデータ) (2021-09-27T17:31:04Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Scalable Frank-Wolfe on Generalized Self-concordant Functions via Simple Steps [66.88729048402082]
一般化自己一致は、多くの学習問題の目的関数に存在する重要な特性である。
検討対象の領域が一様凸あるいは多面体である場合など,様々な症例に対する収束率の改善を示す。
論文 参考訳(メタデータ) (2021-05-28T15:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。