論文の概要: Learning representations in Bayesian Confidence Propagation neural
networks
- arxiv url: http://arxiv.org/abs/2003.12415v1
- Date: Fri, 27 Mar 2020 13:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:18:56.935689
- Title: Learning representations in Bayesian Confidence Propagation neural
networks
- Title(参考訳): ベイズ信頼度伝播ニューラルネットワークにおける学習表現
- Authors: Naresh Balaji Ravichandran, Anders Lansner, Pawel Herman
- Abstract要約: 階層的表現の教師なし学習は、ディープラーニングにおける最も活発な研究方向の1つである。
本研究は,局所的なヘビアン学習に基づくニューラルネットワークにおける非教師なし戦略を生物学的にインスピレーションした研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised learning of hierarchical representations has been one of the
most vibrant research directions in deep learning during recent years. In this
work we study biologically inspired unsupervised strategies in neural networks
based on local Hebbian learning. We propose new mechanisms to extend the
Bayesian Confidence Propagating Neural Network (BCPNN) architecture, and
demonstrate their capability for unsupervised learning of salient hidden
representations when tested on the MNIST dataset.
- Abstract(参考訳): 階層表現の教師なし学習は、近年のディープラーニングにおける最も活発な研究方向の1つである。
本研究では,局所的なヘビアン学習に基づくニューラルネットワークの非教師なし戦略を生物学的に研究する。
本稿では,bcpnn(bayesian confidence propagating neural network)アーキテクチャを拡張するための新たなメカニズムを提案し,mnistデータセット上でテストした場合に有意な隠れ表現を教師なし学習する能力を示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Spiking neural networks with Hebbian plasticity for unsupervised
representation learning [0.0]
教師なしの手順でデータから分散内部表現を学習するための新しいスパイクニューラルネットワークモデルを提案する。
オンライン相関に基づくHebbian-Bayesian学習と再配線機構を,前述した表現学習をスパイクニューラルネットワークに導入する。
我々は,非スパイクBCPNNに近い性能を示し,MNISTとF-MNISTの機械学習ベンチマークでトレーニングした場合,他のヘビーンのスパイクネットワークと競合することを示す。
論文 参考訳(メタデータ) (2023-05-05T22:34:54Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Wide Neural Networks Forget Less Catastrophically [39.907197907411266]
ニューラルネットワークアーキテクチャの"幅"が破滅的忘れに及ぼす影響について検討する。
ネットワークの学習力学を様々な観点から研究する。
論文 参考訳(メタデータ) (2021-10-21T23:49:23Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - D2RL: Deep Dense Architectures in Reinforcement Learning [47.67475810050311]
コンピュータビジョンと生成モデルにおけるアーキテクチャ選択の成功からインスピレーションを得ます。
各種ロボット学習ベンチマーク環境における強化学習における深層ネットワークと高密度接続の利用について検討した。
論文 参考訳(メタデータ) (2020-10-19T01:27:07Z) - DRL-FAS: A Novel Framework Based on Deep Reinforcement Learning for Face
Anti-Spoofing [34.68682691052962]
畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)に基づく新しいフレームワークを提案する。
特に、深層強化学習を活用して、画像サブパッチから顔スプーフィング関連情報を探索する動作をモデル化する。
分類の目的のために、ローカル情報をグローバルな情報と融合させ、CNNを通して元の入力画像から学習することができる。
論文 参考訳(メタデータ) (2020-09-16T07:58:01Z) - Brain-like approaches to unsupervised learning of hidden representations
-- a comparative study [0.0]
我々は最近,疎分散高次元表現を抽出するために拡張されたBCPNNモデルについて検討した。
MNISTデータセットとFashion-MNISTデータセットでトレーニングされた隠れ表現の有用性とクラス依存分離性について検討した。
論文 参考訳(メタデータ) (2020-05-06T11:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。