論文の概要: Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity
- arxiv url: http://arxiv.org/abs/2009.08934v1
- Date: Fri, 21 Aug 2020 19:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 20:44:29.268295
- Title: Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity
- Title(参考訳): シナプス塑性によるオペレーショナルニューラルネットワークの爆発的不均一性
- Authors: Serkan Kiranyaz, Junaid Malik, Habib Ben Abdallah, Turker Ince,
Alexandros Iosifidis, Moncef Gabbouj
- Abstract要約: 最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
- 参考スコア(独自算出の注目度): 87.32169414230822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed network model, Operational Neural Networks (ONNs), can
generalize the conventional Convolutional Neural Networks (CNNs) that are
homogenous only with a linear neuron model. As a heterogenous network model,
ONNs are based on a generalized neuron model that can encapsulate any set of
non-linear operators to boost diversity and to learn highly complex and
multi-modal functions or spaces with minimal network complexity and training
data. However, the default search method to find optimal operators in ONNs, the
so-called Greedy Iterative Search (GIS) method, usually takes several training
sessions to find a single operator set per layer. This is not only
computationally demanding, also the network heterogeneity is limited since the
same set of operators will then be used for all neurons in each layer. To
address this deficiency and exploit a superior level of heterogeneity, in this
study the focus is drawn on searching the best-possible operator set(s) for the
hidden neurons of the network based on the Synaptic Plasticity paradigm that
poses the essential learning theory in biological neurons. During training,
each operator set in the library can be evaluated by their synaptic plasticity
level, ranked from the worst to the best, and an elite ONN can then be
configured using the top ranked operator sets found at each hidden layer.
Experimental results over highly challenging problems demonstrate that the
elite ONNs even with few neurons and layers can achieve a superior learning
performance than GIS-based ONNs and as a result the performance gap over the
CNNs further widens.
- Abstract(参考訳): 最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、線形ニューロンモデルのみで均質な従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
異種ネットワークモデルとして、ONNは一般化されたニューロンモデルに基づいており、任意の非線形演算子をカプセル化して多様性を高め、ネットワークの複雑さとトレーニングデータを最小限に抑えた高度に複雑でマルチモーダルな関数や空間を学習することができる。
しかし、ONNの最適演算子を見つけるデフォルトの探索手法であるGreedy Iterative Search (GIS) は、通常、複数のトレーニングセッションを要し、各層に1つの演算子セットを見つける。
これは計算上要求されるだけでなく、ネットワークの不均一性も制限される。なぜなら同じ演算子セットが各層の全ニューロンで使用されるからである。
この不足に対処し、より優れた不均一性を利用するため、本研究では、生体ニューロンにおいて必須の学習理論を定めているシナプス可塑性パラダイムに基づいて、ネットワークの隠れたニューロンの最適操作集合を探索することに焦点を当てている。
トレーニング中、ライブラリ内の各オペレータセットは、最悪のものから最高のものまで、シナプス可塑性レベルで評価することができ、各隠れたレイヤにある上位のオペレータセットを使用して、エリートonnを設定することができる。
高難易度問題に対する実験結果から、少数のニューロンや層であっても、GISベースのONNよりも優れた学習性能が得られることが示され、その結果、CNNに対する性能格差はさらに拡大した。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification [13.521272923545409]
Spi Neural Networksは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
本稿では,ビデオ認識タスクのための教師なし学習を用いたヘテロジニアススパイキングニューラルネットワーク(HRSNN)を提案する。
本研究では,時間的バックプロパゲーション訓練による教師付きSNNに類似した性能を実現することができるが,少ない計算量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-09-22T16:34:01Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。