論文の概要: IC Neuron: An Efficient Unit to Construct Neural Networks
- arxiv url: http://arxiv.org/abs/2011.11271v1
- Date: Mon, 23 Nov 2020 08:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:45:34.718788
- Title: IC Neuron: An Efficient Unit to Construct Neural Networks
- Title(参考訳): IC Neuron: ニューラルネットワークを構築するための効率的なユニット
- Authors: Junyi An, Fengshan Liu, Jian Zhao and Furao Shen
- Abstract要約: より複雑な分布を表現できる新しいニューロンモデルを提案する。
層間衝突(IC)ニューロンは入力空間を異なる線形変換を表すために使用される複数の部分空間に分割する。
我々は、ICニューロンを完全連結(FC)、畳み込み、再帰構造に統合することにより、ICネットワークを構築する。
- 参考スコア(独自算出の注目度): 8.926478245654703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a popular machine learning method, neural networks can be used to solve
many complex tasks. Their strong generalization ability comes from the
representation ability of the basic neuron model. The most popular neuron is
the MP neuron, which uses a linear transformation and a non-linear activation
function to process the input successively. Inspired by the elastic collision
model in physics, we propose a new neuron model that can represent more complex
distributions. We term it Inter-layer collision (IC) neuron. The IC neuron
divides the input space into multiple subspaces used to represent different
linear transformations. This operation enhanced non-linear representation
ability and emphasizes some useful input features for the given task. We build
the IC networks by integrating the IC neurons into the fully-connected (FC),
convolutional, and recurrent structures. The IC networks outperform the
traditional networks in a wide range of experiments. We believe that the IC
neuron can be a basic unit to build network structures.
- Abstract(参考訳): 一般的な機械学習手法として、ニューラルネットワークは、多くの複雑なタスクを解決するために使用できる。
その強力な一般化能力は、基本ニューロンモデルの表現能力に由来する。
最も一般的なニューロンはMPニューロンであり、線形変換と非線形活性化関数を用いて入力を順次処理する。
物理学における弾性衝突モデルに着想を得て,より複雑な分布を表現できる新しいニューロンモデルを提案する。
我々は、層間衝突(IC)ニューロンと呼ぶ。
ICニューロンは入力空間を異なる線形変換を表すために使用される複数の部分空間に分割する。
この操作は非線形表現能力を高め、与えられたタスクに有用な入力機能を強調する。
我々は、ICニューロンを完全連結(FC)、畳み込み、再帰構造に統合することにより、ICネットワークを構築する。
ICネットワークは、様々な実験で従来のネットワークを上回っている。
我々は、icニューロンはネットワーク構造を構築する基本的なユニットであると信じている。
関連論文リスト
- Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Neural network with optimal neuron activation functions based on
additive Gaussian process regression [0.0]
より柔軟なニューロン活性化機能により、より少ない神経細胞や層を使用でき、表現力を向上させることができる。
加算ガウス過程回帰(GPR)は各ニューロンに特異的な最適なニューロン活性化関数を構築するのに有効であることを示す。
ニューラルネットワークパラメータの非線形フィッティングを回避するアプローチも導入されている。
論文 参考訳(メタデータ) (2023-01-13T14:19:17Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Continual Learning with Deep Artificial Neurons [0.0]
本稿では,Deep Artificial Neurons (DAN)を導入し,ディープニューラルネットワークとして実現した。
ネットワーク内のすべてのDANが共有する神経表現型をダブする単一パラメータベクトルをメタ学習することが可能であることを示す。
適切な神経表現型は,最小限の忘れを伴ってシナプスを更新する能力を持つ単一ネットワークを育むことができることを示す。
論文 参考訳(メタデータ) (2020-11-13T17:50:10Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。