論文の概要: Representation learnt by SGD and Adaptive learning rules -- Conditions
that Vary Sparsity and Selectivity in Neural Network
- arxiv url: http://arxiv.org/abs/2201.11653v1
- Date: Tue, 25 Jan 2022 05:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 06:18:30.061947
- Title: Representation learnt by SGD and Adaptive learning rules -- Conditions
that Vary Sparsity and Selectivity in Neural Network
- Title(参考訳): SGDと適応学習規則で学習した表現-ニューラルネットワークにおけるバラつきと選択性
- Authors: Jinhyun Park
- Abstract要約: 相互干渉を減らす効果的な方法は、神経細胞の空間性と選択性に見られる。
本稿では,ニューラルネットワークの空間性や選択性を自然に向上させる諸条件について検討する。
- 参考スコア(独自算出の注目度): 1.218340575383456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From the point of view of the human brain, continual learning can perform
various tasks without mutual interference. An effective way to reduce mutual
interference can be found in sparsity and selectivity of neurons. According to
Aljundi et al. and Hadsell et al., imposing sparsity at the representational
level is advantageous for continual learning because sparse neuronal
activations encourage less overlap between parameters, resulting in less
interference. Similarly, highly selective neural networks are likely to induce
less interference since particular response in neurons will reduce the chance
of overlap with other parameters. Considering that the human brain performs
continual learning over the lifespan, finding conditions where sparsity and
selectivity naturally arises may provide insight for understanding how the
brain functions. This paper investigates various conditions that naturally
increase sparsity and selectivity in a neural network. This paper tested
different optimizers with Hoyer's sparsity metric and CCMAS selectivity metric
in MNIST classification task. It is essential to note that investigations on
the natural occurrence of sparsity and selectivity concerning various
conditions have not been acknowledged in any sector of neuroscience nor machine
learning until this day. This paper found that particular conditions increase
sparsity and selectivity such as applying a large learning rate and lowering a
batch size. In addition to the relationship between the condition, sparsity,
and selectivity, the following will be discussed based on empirical analysis:
1. The relationship between sparsity and selectivity and 2. The relationship
between test accuracy, sparsity, and selectivity.
- Abstract(参考訳): 人間の脳の観点からは、連続学習は相互干渉なしに様々なタスクを遂行することができる。
相互干渉を減らす効果的な方法はニューロンのスパーシティと選択性に見ることができる。
Aljundi et al. と Hadsell et al. によれば、疎神経の活性化はパラメータ間の重複を減らし、干渉を減らすため、表現レベルでの間隔を付与することは連続的な学習に有利である。
同様に、高選択性ニューラルネットワークは、ニューロン内の特定の応答が他のパラメータと重複する確率を減らすため、干渉を減少させる可能性がある。
人間の脳が生涯にわたって継続的な学習を行うことを考えると、空間性や選択性が自然に生じる条件を見つけることは、脳がどのように機能するかを理解する洞察を与える可能性がある。
本稿では,ニューラルネットワークにおいて自然にスパーシティと選択性を高める様々な条件について検討する。
mnist分類タスクにおいて,hoyerのsparsityメトリックとccmas選択度メトリックを用いて異なる最適化器をテストした。
神経科学や機械学習のどの分野においても、様々な条件におけるスパーシティの自然発生と選択性に関する調査は、今日まで認められていないことに留意する必要がある。
本稿では,学習率の増大やバッチサイズの低下など,特定の条件がスパーシティと選択性を高めることを見出した。
条件,スパーシティ,選択性の関係に加えて,経験的分析に基づいて,次のことが議論される。
一 空間と選択性及び選択性の関係
2. 検査精度, 疎度, 選択性の関係
関連論文リスト
- Stimulus-to-Stimulus Learning in RNNs with Cortical Inductive Biases [0.0]
大脳皮質に広まる2種類の誘導バイアスを用いた刺激置換の繰り返しニューラルネットワークモデルを提案する。
本研究では,モデルが幅広い条件づけ現象を発生させ,学習量と多数の関連性を学習可能であることを示す。
我々の枠組みは、大脳皮質におけるマルチコンパートメントニューロン処理の重要性を強調し、大脳皮質動物を進化の端とみなす方法を示している。
論文 参考訳(メタデータ) (2024-09-20T13:01:29Z) - Decorrelating neurons using persistence [29.25969187808722]
2つの正規化項は、クリッドの最小スパンニングツリーの重みから計算される。
ニューロン間の相関関係を最小化することで、正規化条件よりも低い精度が得られることを示す。
正規化の可微分性の証明を含むので、最初の効果的なトポロジカルな永続性に基づく正規化用語を開発することができる。
論文 参考訳(メタデータ) (2023-08-09T11:09:14Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - A Neural Network Based Automated IFT-20 Sensory Neuron Classifier for
Caenorhabditis elegans [0.0]
組織間比較は、機能ネットワークの全脳分析を含む幅広い研究を可能にする。
線虫 Caenorhabditis elegans における単細胞分解能のパンニューロンイメージングの最近の進歩は、すべての到達範囲におけるニューロンの同定、追跡、活動監視をもたらした。
高い精度で神経細胞を同定する主な障壁は、成人のC. elegansでは神経細胞の体の位置がステレオタイプ化されていないことである。
単色蛍光画像のみを用いた別の神経細胞識別手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T00:17:26Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - The distribution of inhibitory neurons in the C. elegans connectome
facilitates self-optimization of coordinated neural activity [78.15296214629433]
線虫Caenorhabditis elegansの神経系は、昆虫のサイズが小さいにもかかわらず著しく複雑である。
一般的な課題は、システムレベルでの神経組織と神経活動の関係をよりよく理解することである。
我々は,各ニューロンの神経伝達物質同定を近似した,C. elegans Connectomeの抽象シミュレーションモデルを実装した。
論文 参考訳(メタデータ) (2020-10-28T23:11:37Z) - On the relationship between class selectivity, dimensionality, and
robustness [25.48362370177062]
クラス選択性は入力データの摂動に頑健性(または脆弱性)を与えるかを検討する。
クラス選択率の平均は、自然主義的な腐敗に対する脆弱性を予測する。
その結果、クラス選択性は、複数の種類の勾配に基づく敵攻撃に対して堅牢性を高めることが判明した。
論文 参考訳(メタデータ) (2020-07-08T21:24:45Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。