論文の概要: Evaluating adversarial robustness in simulated cerebellum
- arxiv url: http://arxiv.org/abs/2012.02976v1
- Date: Sat, 5 Dec 2020 08:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 11:59:47.366681
- Title: Evaluating adversarial robustness in simulated cerebellum
- Title(参考訳): 模擬小脳における対向性の評価
- Authors: Liu Yuezhang, Bo Li, Qifeng Chen
- Abstract要約: シミュレーション小脳における対角的強靭性について検討する。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
- 参考スコア(独自算出の注目度): 44.17544361412302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that artificial neural networks are vulnerable to
adversarial examples, in which great efforts have been made to improve the
robustness. However, such examples are usually imperceptible to humans, thus
their effect on biological neural circuits is largely unknown. This paper will
investigate the adversarial robustness in a simulated cerebellum, a
well-studied supervised learning system in computational neuroscience.
Specifically, we propose to study three unique characteristics revealed in the
cerebellum: (i) network width; (ii) long-term depression on the parallel
fiber-Purkinje cell synapses; (iii) sparse connectivity in the granule layer,
and hypothesize that they will be beneficial for improving robustness. To the
best of our knowledge, this is the first attempt to examine the adversarial
robustness in simulated cerebellum models. We wish to remark that both of the
positive and negative results are indeed meaningful -- if the answer is in the
affirmative, engineering insights are gained from the biological model into
designing more robust learning systems; otherwise, neuroscientists are
encouraged to fool the biological system in experiments with adversarial
attacks -- which makes the project especially suitable for a pre-registration
study.
- Abstract(参考訳): ニューラルネットワークは、ロバスト性を改善するために多大な努力がなされた敵の例に弱いことがよく知られている。
しかしながら、そのような例は通常ヒトには受容できないため、生物学的神経回路に対する影響はほとんど分かっていない。
本稿では,計算神経科学における教師付き学習システムであるシミュレート小脳における対向的ロバスト性について検討する。
具体的には,小脳の3つの特徴について検討することを提案する。 (i) ネットワーク幅, (ii) パラレルファイバー-プルキンエ細胞シナプスの長期抑制, (iii) 顆粒層の疎結合, およびそれらが堅牢性向上に有用であるという仮説である。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
肯定的な結果と否定的な結果の両方が本当に有意義である – 肯定的な答えであれば,より堅牢な学習システムを設計するための生物学的モデルから,工学的な洞察が得られます。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Brain-inspired Computational Modeling of Action Recognition with Recurrent Spiking Neural Networks Equipped with Reinforcement Delay Learning [4.9798155883849935]
行動認識は、その複雑な性質と、この分野における脳の異常なパフォーマンスのために大きな注目を集めている。
現在の行動認識のソリューションは、問題を効果的に解決する際の限界を示すか、必要な生物学的妥当性を欠くかのどちらかである。
本稿では,脳に触発された行動認識モデルを提案する。
論文 参考訳(メタデータ) (2024-06-17T17:34:16Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks [0.0]
認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
論文 参考訳(メタデータ) (2023-03-26T12:18:03Z) - Adversarially trained neural representations may already be as robust as
corresponding biological neural representations [66.73634912993006]
本研究では,霊長類脳活動に直接対人的視覚攻撃を行う方法を開発した。
霊長類の視覚系を構成する生物学的ニューロンは、既存の(不正に訓練された)人工ニューラルネットワークに匹敵する敵の摂動に感受性を示す。
論文 参考訳(メタデータ) (2022-06-19T04:15:29Z) - Neural Population Geometry Reveals the Role of Stochasticity in Robust
Perception [16.60105791126744]
本稿では,視覚神経ネットワークの内部表現に逆方向の摂動がどのような影響を及ぼすかを検討する。
ネットワークの種類ごとに異なる幾何学的シグネチャを見つけ,ロバスト表現を実現するための異なるメカニズムを明らかにする。
我々の結果は、堅牢な知覚ネットワークの戦略に光を当て、幾何学性が機械や生物学的計算にどのように役立つかを説明するのに役立ちました。
論文 参考訳(メタデータ) (2021-11-12T22:59:45Z) - Learning to infer in recurrent biological networks [4.56877715768796]
大脳皮質は逆アルゴリズムで学習するかもしれないと我々は主張する。
画像とビデオのデータセットをモデル化するために訓練されたリカレントニューラルネットワークについて説明する。
論文 参考訳(メタデータ) (2020-06-18T19:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。