論文の概要: Integral representations of shallow neural network with Rectified Power
Unit activation function
- arxiv url: http://arxiv.org/abs/2112.11157v1
- Date: Mon, 20 Dec 2021 15:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 15:33:21.573165
- Title: Integral representations of shallow neural network with Rectified Power
Unit activation function
- Title(参考訳): Rectified Power UnitActivation関数を用いた浅部ニューラルネットワークの積分表現
- Authors: Ahmed Abdeljawad, Philipp Grohs
- Abstract要約: 我々は、Rectified Power Unitアクティベーション関数を持つ浅層ニューラルネットワークの積分表現の式を導出する。
この論文における多次元結果は、有界ノルムとおそらく非有界幅で表現できる関数の集合を特徴づける。
- 参考スコア(独自算出の注目度): 5.863264019032882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this effort, we derive a formula for the integral representation of a
shallow neural network with the Rectified Power Unit activation function.
Mainly, our first result deals with the univariate case of representation
capability of RePU shallow networks. The multidimensional result in this paper
characterizes the set of functions that can be represented with bounded norm
and possibly unbounded width.
- Abstract(参考訳): そこで本研究では,Rectified Power Unit 活性化関数を用いた浅部ニューラルネットワークの積分表現式を導出する。
主に,RePU浅層ネットワークの表現能力の一変量の場合について検討した。
この論文における多次元結果は、有界ノルムとおそらく非有界幅で表現できる関数の集合を特徴づける。
関連論文リスト
- SuperGaussians: Enhancing Gaussian Splatting Using Primitives with Spatially Varying Colors [51.54964131894217]
空間的に異なる色と不透明度を1つのガウスプリミティブに利用して表現能力を向上するSuperGaussianと呼ばれる新しい手法を提案する。
我々は、空間的に異なる機能として、バイリニア、可動カーネル、さらには小さなニューラルネットワークを実装した。
論文 参考訳(メタデータ) (2024-11-28T07:36:22Z) - Activation Functions for "A Feedforward Unitary Equivariant Neural Network" [0.0]
前報では,フィードフォワード一元同変ニューラルネットワークについて紹介した。
このネットワークに適した3つのアクティベーション関数を提案した。
本稿では,これらの活性化関数を単一機能形式に一般化する。
論文 参考訳(メタデータ) (2024-11-17T09:46:52Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Extending Neural Network Verification to a Larger Family of Piece-wise
Linear Activation Functions [0.0]
利用可能なニューラルネットワーク検証手法を拡張して,より広い範囲の線形アクティベーション機能をサポートする。
また,開始集合として表される有界入力集合に対して,元の形式を正確にオーバー近似するアルゴリズムを拡張して,非有界入力集合も許容する。
論文 参考訳(メタデータ) (2023-11-16T11:01:39Z) - Generalized Activation via Multivariate Projection [46.837481855573145]
活性化関数はニューラルネットワークに非線形性を導入するのに不可欠である。
我々は、ReLU を R から非負半直線 R+ への射影とみなす。
一般化された射影作用素でReLUを2次錐(SOC)射影のような凸錐に置換することでReLUを拡張する。
論文 参考訳(メタデータ) (2023-09-29T12:44:27Z) - Piecewise Linear Functions Representable with Infinite Width Shallow
ReLU Neural Networks [0.0]
我々は,このような無限幅のニューラルネットワークで表現可能なすべての連続的片方向線形関数が,有限幅の浅いReLUニューラルネットワークとして表現可能であることを,オンジーらの予想を証明した。
論文 参考訳(メタデータ) (2023-07-25T15:38:18Z) - Unification of popular artificial neural network activation functions [0.0]
本稿では,最も一般的なニューラルネットワーク活性化関数の統一表現について述べる。
分数計算のMittag-Leffler関数を採用することにより、フレキシブルでコンパクトな関数形式を提案する。
論文 参考訳(メタデータ) (2023-02-21T21:20:59Z) - Uniform Approximation with Quadratic Neural Networks [0.0]
ReQUを活性化したディープニューラルネットワークは、(R)-H'older-regular関数内の任意の関数を近似することができることを示す。
結果は (pgeq 2) の形式 (max(0,x)p) の任意の Rectified Power Unit (RePU) 活性化関数に簡単に一般化できる。
論文 参考訳(メタデータ) (2022-01-11T02:26:55Z) - An Investigation of Potential Function Designs for Neural CRF [75.79555356970344]
本稿では,ニューラルCRFモデルに対する一連の表現力のあるポテンシャル関数について検討する。
実験により, 隣接する2つのラベルと隣接する2つの単語のベクトル表現に基づく分解された二次ポテンシャル関数が, 常に最高の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-11T07:32:18Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。