論文の概要: Continual Learning with Deep Artificial Neurons
- arxiv url: http://arxiv.org/abs/2011.07035v1
- Date: Fri, 13 Nov 2020 17:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:12:06.837565
- Title: Continual Learning with Deep Artificial Neurons
- Title(参考訳): 深層人工ニューロンによる連続学習
- Authors: Blake Camp, Jaya Krishna Mandivarapu, Rolando Estrada
- Abstract要約: 本稿では,Deep Artificial Neurons (DAN)を導入し,ディープニューラルネットワークとして実現した。
ネットワーク内のすべてのDANが共有する神経表現型をダブする単一パラメータベクトルをメタ学習することが可能であることを示す。
適切な神経表現型は,最小限の忘れを伴ってシナプスを更新する能力を持つ単一ネットワークを育むことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Neurons in real brains are enormously complex computational units. Among
other things, they're responsible for transforming inbound electro-chemical
vectors into outbound action potentials, updating the strengths of intermediate
synapses, regulating their own internal states, and modulating the behavior of
other nearby neurons. One could argue that these cells are the only things
exhibiting any semblance of real intelligence. It is odd, therefore, that the
machine learning community has, for so long, relied upon the assumption that
this complexity can be reduced to a simple sum and fire operation. We ask,
might there be some benefit to substantially increasing the computational power
of individual neurons in artificial systems? To answer this question, we
introduce Deep Artificial Neurons (DANs), which are themselves realized as deep
neural networks. Conceptually, we embed DANs inside each node of a traditional
neural network, and we connect these neurons at multiple synaptic sites,
thereby vectorizing the connections between pairs of cells. We demonstrate that
it is possible to meta-learn a single parameter vector, which we dub a neuronal
phenotype, shared by all DANs in the network, which facilitates a
meta-objective during deployment. Here, we isolate continual learning as our
meta-objective, and we show that a suitable neuronal phenotype can endow a
single network with an innate ability to update its synapses with minimal
forgetting, using standard backpropagation, without experience replay, nor
separate wake/sleep phases. We demonstrate this ability on sequential
non-linear regression tasks.
- Abstract(参考訳): 実際の脳内のニューロンは、非常に複雑な計算単位である。
その中には、インバウンド電気化学ベクトルをアウトバウンド作用電位に変換し、中間シナプスの強度を更新し、内部状態を調節し、他のニューロンの行動を調節する役割があります。
これらの細胞は、真の知性を示す唯一のものであると主張することができる。
したがって、機械学習コミュニティが長い間、この複雑さを単純な和と火の操作に還元できるという仮定に依存してきたのは奇妙である。
我々は、人工システムにおいて個々のニューロンの計算能力を大幅に向上させる利点があるだろうか?
この質問に答えるために、ディープニューラルネットワークとして実現される深層人工ニューロン(deep artificial neurons:dans)を紹介します。
概念的には、従来のニューラルネットワークの各ノードにDANを埋め込み、これらのニューロンを複数のシナプス部位に接続することで、セル間の接続をベクトル化する。
ネットワーク内のすべてのDANが共有する神経表現型をダブする単一パラメータベクトルをメタ学習することで,展開中のメタオブジェクトを容易にすることができることを示す。
ここでは, 連続学習をメタオブジェクトとして分離し, 適切な神経表現型が, 最小限の記憶, 標準のバックプロパゲーション, 経験的再生, 覚醒/睡眠段階の分離を伴わずに, シナプスを更新する能力を持った単一ネットワークを構築可能であることを示す。
逐次非線形回帰タスクでこの能力を実証する。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Learning to Act through Evolution of Neural Diversity in Random Neural
Networks [9.387749254963595]
ほとんどの人工ニューラルネットワーク(ANN)では、神経計算は通常すべてのニューロン間で共有される活性化関数に抽象化される。
本稿では,複雑な計算を行うことができる多様なニューロンの集合を実現するために,神経中心パラメータの最適化を提案する。
論文 参考訳(メタデータ) (2023-05-25T11:33:04Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Deep neural networks as nested dynamical systems [0.0]
ディープニューラルネットワークと実際の脳の間では、しばしばアナロジーが作られ、命名法自体によって示唆される。
本項では、類推が違うことを主張する。
ディープニューラルネットワークの「ニューロン」は変化の重みを管理しているため、脳のシナプスに類似している。
論文 参考訳(メタデータ) (2021-11-01T23:37:54Z) - IC Neuron: An Efficient Unit to Construct Neural Networks [8.926478245654703]
より複雑な分布を表現できる新しいニューロンモデルを提案する。
層間衝突(IC)ニューロンは入力空間を異なる線形変換を表すために使用される複数の部分空間に分割する。
我々は、ICニューロンを完全連結(FC)、畳み込み、再帰構造に統合することにより、ICネットワークを構築する。
論文 参考訳(メタデータ) (2020-11-23T08:36:48Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。