論文の概要: Wavelet Neural Networks versus Wavelet-based Neural Networks
- arxiv url: http://arxiv.org/abs/2211.00396v1
- Date: Tue, 1 Nov 2022 11:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:55:42.254260
- Title: Wavelet Neural Networks versus Wavelet-based Neural Networks
- Title(参考訳): ウェーブレットニューラルネットワークとウェーブレットベースニューラルネットワーク
- Authors: Lubomir T. Dechevsky, Kristoffer M. Tangrand
- Abstract要約: 我々は、新しいタイプのニューラルネットワーク(NN)、ウェーブレットベースのニューラルネットワーク(WBNN)を導入し、その特性と応用の可能性について研究する。
我々は、WBNNが既存のウェーブレットニューラルネットワーク(WNN)を大幅に上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is the first paper in a sequence of studies in which we introduce a new
type of neural networks (NNs) -- wavelet-based neural networks (WBNNs) -- and
study their properties and potential for applications. We begin this study with
a comparison to the currently existing type of wavelet neural networks (WNNs)
and show that WBNNs vastly outperform WNNs. One reason for the vast superiority
of WBNNs is their advanced hierarchical tree structure based on biorthonormal
multiresolution analysis (MRA). Another reason for this is the implementation
of our new idea to incorporate the wavelet tree depth into the neural width of
the NN. The separation of the roles of wavelet depth and neural depth provides
a conceptually and algorithmically simple but highly efficient methodology for
sharp increase in functionality of swarm and deep WBNNs and rapid acceleration
of the machine learning process.
- Abstract(参考訳): これは、新しいタイプのニューラルネットワーク(NN)、ウェーブレットベースのニューラルネットワーク(WBNN)を導入し、それらの特性と応用の可能性を研究する一連の研究の最初の論文である。
本研究は、現在存在するウェーブレットニューラルネットワーク(WNN)と比較し、WBNNがWNNをはるかに上回っていることを示す。
WBNNが圧倒的に優れている理由の1つは、生物ノルム多分解能解析(MRA)に基づく高度な階層木構造である。
このもう1つの理由は、ウェーブレットツリーの深さをnnのニューラルネットワークの幅に組み込むという新しいアイデアの実装です。
ウェーブレット深度とニューラル深度の役割の分離は、SwarmとディープWBNNの機能の急激な増加と機械学習プロセスの高速化のための概念的かつアルゴリズム的かつ高効率な方法論を提供する。
関連論文リスト
- Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Deep Learning in Spiking Phasor Neural Networks [0.6767885381740952]
スパイキングニューラルネットワーク(SNN)は、低レイテンシで低消費電力のニューロモルフィックハードウェアで使用するために、ディープラーニングコミュニティの注目を集めている。
本稿では,Spking Phasor Neural Networks(SPNN)を紹介する。
SPNNは複雑に評価されたディープニューラルネットワーク(DNN)に基づいており、スパイク時間による位相を表す。
論文 参考訳(メタデータ) (2022-04-01T15:06:15Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。