論文の概要: Approximation Capabilities of Neural Networks using Morphological
Perceptrons and Generalizations
- arxiv url: http://arxiv.org/abs/2207.07832v1
- Date: Sat, 16 Jul 2022 04:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 14:35:33.303669
- Title: Approximation Capabilities of Neural Networks using Morphological
Perceptrons and Generalizations
- Title(参考訳): 形態知覚と一般化を用いたニューラルネットワークの近似能力
- Authors: William Chang, Hassan Hamad, Keith M. Chugg
- Abstract要約: 最大 ANN は普遍近似能力を持たないことを示す。
形態素ANNの符号-max-sumと最大星-sumの一般化について検討する。
- 参考スコア(独自算出の注目度): 1.8907108368038217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard artificial neural networks (ANNs) use sum-product or
multiply-accumulate node operations with a memoryless nonlinear activation.
These neural networks are known to have universal function approximation
capabilities. Previously proposed morphological perceptrons use max-sum, in
place of sum-product, node processing and have promising properties for circuit
implementations. In this paper we show that these max-sum ANNs do not have
universal approximation capabilities. Furthermore, we consider proposed
signed-max-sum and max-star-sum generalizations of morphological ANNs and show
that these variants also do not have universal approximation capabilities. We
contrast these variations to log-number system (LNS) implementations which also
avoid multiplications, but do exhibit universal approximation capabilities.
- Abstract(参考訳): 標準人工ニューラルネットワーク(ANN)は、メモリレス非線形アクティベーションを備えた総積または乗算累積ノード演算を使用する。
これらのニューラルネットワークは普遍関数近似能力を持つことが知られている。
従来提案された形態素パーセプトロンは、和積、ノード処理の代わりにmax-sumを使用し、回路実装に有望な特性を持つ。
本稿では,これらの最大 ANN は普遍近似能力を持たないことを示す。
さらに, モルフォロジー ANN の符号-max-sum と最大星-sum の一般化について検討し, これらの変種が普遍近似能力を持たないことを示す。
これらのバリエーションを、乗算を避けつつ普遍近似能力を示すlog-number system (lns) 実装と比較する。
関連論文リスト
- Universal approximation results for neural networks with non-polynomial activation function over non-compact domains [3.3379026542599934]
ユークリッド空間の非コンパクト部分集合上の関数空間内のニューラルネットワークに対する普遍近似結果を導出する。
非ポリノミカルアクティベーション関数を持つニューラルネットワークにより、十分に正規かつ可積分なフーリエ変換を持つ関数を近似するための次元非依存の速度を提供する。
論文 参考訳(メタデータ) (2024-10-18T09:53:20Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - How (Implicit) Regularization of ReLU Neural Networks Characterizes the
Learned Function -- Part II: the Multi-D Case of Two Layers with Random First
Layer [2.1485350418225244]
本稿では,ReLUアクティベーションを伴うランダム化した浅層NNの一般化挙動を,正確なマクロ解析により解析する。
RSNは、無限に多くの方向が考慮される一般化加法モデル(GAM)型回帰に対応することを示す。
論文 参考訳(メタデータ) (2023-03-20T21:05:47Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Approximation Theory of Tree Tensor Networks: Tensorized Multivariate Functions [0.0]
目的関数の任意の滑らか度順序に対して、TN が $h$-uniform と $h$-adaptive 近似を最適に複製できることが示される。
TNは、問題のある特定のクラスに適応することなく、(ほぼ)多くの関数クラスを最適に近似する能力を持っている。
論文 参考訳(メタデータ) (2021-01-28T11:09:40Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Non-Euclidean Universal Approximation [4.18804572788063]
ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
論文 参考訳(メタデータ) (2020-06-03T15:38:57Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。