論文の概要: Evaluating adversarial robustness in simulated cerebellum
- arxiv url: http://arxiv.org/abs/2012.02976v1
- Date: Sat, 5 Dec 2020 08:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 11:59:47.366681
- Title: Evaluating adversarial robustness in simulated cerebellum
- Title(参考訳): 模擬小脳における対向性の評価
- Authors: Liu Yuezhang, Bo Li, Qifeng Chen
- Abstract要約: シミュレーション小脳における対角的強靭性について検討する。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
- 参考スコア(独自算出の注目度): 44.17544361412302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that artificial neural networks are vulnerable to
adversarial examples, in which great efforts have been made to improve the
robustness. However, such examples are usually imperceptible to humans, thus
their effect on biological neural circuits is largely unknown. This paper will
investigate the adversarial robustness in a simulated cerebellum, a
well-studied supervised learning system in computational neuroscience.
Specifically, we propose to study three unique characteristics revealed in the
cerebellum: (i) network width; (ii) long-term depression on the parallel
fiber-Purkinje cell synapses; (iii) sparse connectivity in the granule layer,
and hypothesize that they will be beneficial for improving robustness. To the
best of our knowledge, this is the first attempt to examine the adversarial
robustness in simulated cerebellum models. We wish to remark that both of the
positive and negative results are indeed meaningful -- if the answer is in the
affirmative, engineering insights are gained from the biological model into
designing more robust learning systems; otherwise, neuroscientists are
encouraged to fool the biological system in experiments with adversarial
attacks -- which makes the project especially suitable for a pre-registration
study.
- Abstract(参考訳): ニューラルネットワークは、ロバスト性を改善するために多大な努力がなされた敵の例に弱いことがよく知られている。
しかしながら、そのような例は通常ヒトには受容できないため、生物学的神経回路に対する影響はほとんど分かっていない。
本稿では,計算神経科学における教師付き学習システムであるシミュレート小脳における対向的ロバスト性について検討する。
具体的には,小脳の3つの特徴について検討することを提案する。 (i) ネットワーク幅, (ii) パラレルファイバー-プルキンエ細胞シナプスの長期抑制, (iii) 顆粒層の疎結合, およびそれらが堅牢性向上に有用であるという仮説である。
我々の知る限りでは、シミュレートされた小脳モデルにおける対角的堅牢性を調べる最初の試みである。
肯定的な結果と否定的な結果の両方が本当に有意義である – 肯定的な答えであれば,より堅牢な学習システムを設計するための生物学的モデルから,工学的な洞察が得られます。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方において、ニューロン間の'結合'が競合学習の形式につながることは長年知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、推論など、幅広いタスクに性能改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Exploring Biologically Inspired Mechanisms of Adversarial Robustness [0.0]
我々は、勝者を持つ教師なしの局所学習モデルが全てのダイナミクスにそのような力の法則表現を学習させることを示す。
本研究の目的は, 神経表現における幾何学的特徴, スペクトル特性, 頑健性, 表現性の間の相互作用を理解することである。
論文 参考訳(メタデータ) (2024-02-05T12:06:00Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Control of synaptic plasticity via the fusion of reinforcement learning
and unsupervised learning in neural networks [0.0]
認知神経科学では、シナプスの可塑性が我々の驚くべき学習能力に不可欠な役割を担っていると広く受け入れられている。
このインスピレーションにより、強化学習と教師なし学習の融合により、新しい学習規則が提案される。
提案した計算モデルでは,非線形最適制御理論を誤差フィードバックループ系に類似させる。
論文 参考訳(メタデータ) (2023-03-26T12:18:03Z) - Adversarially trained neural representations may already be as robust as
corresponding biological neural representations [66.73634912993006]
本研究では,霊長類脳活動に直接対人的視覚攻撃を行う方法を開発した。
霊長類の視覚系を構成する生物学的ニューロンは、既存の(不正に訓練された)人工ニューラルネットワークに匹敵する敵の摂動に感受性を示す。
論文 参考訳(メタデータ) (2022-06-19T04:15:29Z) - Neural Population Geometry Reveals the Role of Stochasticity in Robust
Perception [16.60105791126744]
本稿では,視覚神経ネットワークの内部表現に逆方向の摂動がどのような影響を及ぼすかを検討する。
ネットワークの種類ごとに異なる幾何学的シグネチャを見つけ,ロバスト表現を実現するための異なるメカニズムを明らかにする。
我々の結果は、堅牢な知覚ネットワークの戦略に光を当て、幾何学性が機械や生物学的計算にどのように役立つかを説明するのに役立ちました。
論文 参考訳(メタデータ) (2021-11-12T22:59:45Z) - Learning to infer in recurrent biological networks [4.56877715768796]
大脳皮質は逆アルゴリズムで学習するかもしれないと我々は主張する。
画像とビデオのデータセットをモデル化するために訓練されたリカレントニューラルネットワークについて説明する。
論文 参考訳(メタデータ) (2020-06-18T19:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。