論文の概要: When Noise meets Chaos: Stochastic Resonance in Neurochaos Learning
- arxiv url: http://arxiv.org/abs/2102.01316v1
- Date: Tue, 2 Feb 2021 05:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 10:05:55.273998
- Title: When Noise meets Chaos: Stochastic Resonance in Neurochaos Learning
- Title(参考訳): ノイズがカオスと出会うとき:ニューロカオス学習における確率的共鳴
- Authors: Harikrishnan NB and Nithin Nagaraj
- Abstract要約: ニューロカオス学習(NL)における共鳴(SR)現象の実証
SRはNLの単一ニューロンのレベルで発現し、効率的なサブスレッショルド信号検出を可能にする。
ニューロカオス学習における中間レベルのノイズは、分類タスクにおけるピークパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chaos and Noise are ubiquitous in the Brain. Inspired by the chaotic firing
of neurons and the constructive role of noise in neuronal models, we for the
first time connect chaos, noise and learning. In this paper, we demonstrate
Stochastic Resonance (SR) phenomenon in Neurochaos Learning (NL). SR manifests
at the level of a single neuron of NL and enables efficient subthreshold signal
detection. Furthermore, SR is shown to occur in single and multiple neuronal NL
architecture for classification tasks - both on simulated and real-world spoken
digit datasets. Intermediate levels of noise in neurochaos learning enables
peak performance in classification tasks thus highlighting the role of SR in AI
applications, especially in brain inspired learning architectures.
- Abstract(参考訳): カオスとノイズは脳に広がっています。
ニューロンのカオス的な発砲と神経モデルにおけるノイズの構造的役割に触発され、私たちは初めてカオス、ノイズ、学習を接続します。
本稿では,ニューロカオス学習(NL)における確率共鳴(SR)現象を実証する。
SRはNLの単一のニューロンのレベルで現われ、有効なsubthreshold信号の検出を可能にします。
さらに、SRは、シミュレーションと実世界の音声桁データセットの両方において、分類タスクのための単一および複数のニューロンNLアーキテクチャで発生することが示されている。
ニューロカオス学習における中間レベルのノイズは、分類タスクにおけるピークパフォーマンスを可能にし、AIアプリケーション、特に脳インスパイアされた学習アーキテクチャにおけるSRの役割を強調します。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方において、ニューロン間の'結合'が競合学習の形式につながることは長年知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、推論など、幅広いタスクに性能改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Neural Latent Aligner: Cross-trial Alignment for Learning
Representations of Complex, Naturalistic Neural Data [0.0]
そこで本稿では, 複雑な振る舞いをよく拘束し, 行動に関連のある神経表現を見つけるために, 教師なし学習フレームワークNeural Latent Aligner(NLA)を提案する。
提案するフレームワークは, ベースラインよりも地上横断的な一貫した表現を学習し, 可視化すると, 試行錯誤による共有神経軌道が明らかにされる。
論文 参考訳(メタデータ) (2023-08-12T02:35:24Z) - Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition [8.998797644039064]
リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、音声認識(ASR)タスクで一般的に用いられている。
ここでは、スパイキングトランスから生成された逐次パターンを後処理する4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
論文 参考訳(メタデータ) (2023-02-02T16:20:27Z) - Self-Organization Towards $1/f$ Noise in Deep Neural Networks [5.432285843497807]
ピンクノイズ(英: pink noise)は、生物学的ニューラルネットワークにおいて確立された現象である。
この研究では、自然言語で訓練されたディープニューラルネットワークでも、このような1/f$のノイズが見られます。
論文 参考訳(メタデータ) (2023-01-20T12:18:35Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。