論文の概要: Evaluating adversarial robustness in simulated cerebellum
- arxiv url: http://arxiv.org/abs/2012.02976v1
- Date: Sat, 5 Dec 2020 08:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 11:59:47.366681
- Title: Evaluating adversarial robustness in simulated cerebellum
- Title(参考訳): 模擬小脳における対向性の評価
- Authors: Liu Yuezhang, Bo Li, Qifeng Chen
- Abstract要約: シミュレーション小脳における対角的強靭性について検討する。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
- 参考スコア(独自算出の注目度): 44.17544361412302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that artificial neural networks are vulnerable to
adversarial examples, in which great efforts have been made to improve the
robustness. However, such examples are usually imperceptible to humans, thus
their effect on biological neural circuits is largely unknown. This paper will
investigate the adversarial robustness in a simulated cerebellum, a
well-studied supervised learning system in computational neuroscience.
Specifically, we propose to study three unique characteristics revealed in the
cerebellum: (i) network width; (ii) long-term depression on the parallel
fiber-Purkinje cell synapses; (iii) sparse connectivity in the granule layer,
and hypothesize that they will be beneficial for improving robustness. To the
best of our knowledge, this is the first attempt to examine the adversarial
robustness in simulated cerebellum models. We wish to remark that both of the
positive and negative results are indeed meaningful -- if the answer is in the
affirmative, engineering insights are gained from the biological model into
designing more robust learning systems; otherwise, neuroscientists are
encouraged to fool the biological system in experiments with adversarial
attacks -- which makes the project especially suitable for a pre-registration
study.
- Abstract(参考訳): ニューラルネットワークは、ロバスト性を改善するために多大な努力がなされた敵の例に弱いことがよく知られている。
しかしながら、そのような例は通常ヒトには受容できないため、生物学的神経回路に対する影響はほとんど分かっていない。
本稿では,計算神経科学における教師付き学習システムであるシミュレート小脳における対向的ロバスト性について検討する。
具体的には,小脳の3つの特徴について検討することを提案する。 (i) ネットワーク幅, (ii) パラレルファイバー-プルキンエ細胞シナプスの長期抑制, (iii) 顆粒層の疎結合, およびそれらが堅牢性向上に有用であるという仮説である。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
肯定的な結果と否定的な結果の両方が本当に有意義である – 肯定的な答えであれば,より堅牢な学習システムを設計するための生物学的モデルから,工学的な洞察が得られます。
関連論文リスト
- Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks [0.0]
認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
論文 参考訳(メタデータ) (2023-03-26T12:18:03Z) - Learning threshold neurons via the "edge of stability" [33.64379851307296]
既存のニューラルネットワークトレーニングの分析は、非常に少ない学習率という非現実的な仮定の下で運用されることが多い。
安定のエッジ」あるいは「不安定なダイナミクス」は2層ニューラルネットワークで動作する。
本稿では,2層ニューラルネットワークの単純化モデルに対する勾配勾配勾配の詳細な解析を行う。
論文 参考訳(メタデータ) (2022-12-14T19:27:03Z) - Continual learning benefits from multiple sleep mechanisms: NREM, REM,
and Synaptic Downscaling [51.316408685035526]
先行学習を失うことなく、新しいタスクやスキルを連続して学習することは、人工ニューラルネットワークと生物学的ニューラルネットワークの両方にとって、計算上の課題である。
本稿では,3つの異なる睡眠成分のモデル化が,人工ニューラルネットワークの連続学習にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-09-09T13:45:27Z) - Adversarially trained neural representations may already be as robust as
corresponding biological neural representations [66.73634912993006]
本研究では,霊長類脳活動に直接対人的視覚攻撃を行う方法を開発した。
霊長類の視覚系を構成する生物学的ニューロンは、既存の(不正に訓練された)人工ニューラルネットワークに匹敵する敵の摂動に感受性を示す。
論文 参考訳(メタデータ) (2022-06-19T04:15:29Z) - Neural Population Geometry Reveals the Role of Stochasticity in Robust
Perception [16.60105791126744]
本稿では,視覚神経ネットワークの内部表現に逆方向の摂動がどのような影響を及ぼすかを検討する。
ネットワークの種類ごとに異なる幾何学的シグネチャを見つけ,ロバスト表現を実現するための異なるメカニズムを明らかにする。
我々の結果は、堅牢な知覚ネットワークの戦略に光を当て、幾何学性が機械や生物学的計算にどのように役立つかを説明するのに役立ちました。
論文 参考訳(メタデータ) (2021-11-12T22:59:45Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Learning to infer in recurrent biological networks [4.56877715768796]
大脳皮質は逆アルゴリズムで学習するかもしれないと我々は主張する。
画像とビデオのデータセットをモデル化するために訓練されたリカレントニューラルネットワークについて説明する。
論文 参考訳(メタデータ) (2020-06-18T19:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。