論文の概要: Brain-like combination of feedforward and recurrent network components
achieves prototype extraction and robust pattern recognition
- arxiv url: http://arxiv.org/abs/2206.15036v1
- Date: Thu, 30 Jun 2022 06:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 04:04:14.757026
- Title: Brain-like combination of feedforward and recurrent network components
achieves prototype extraction and robust pattern recognition
- Title(参考訳): フィードフォワードとリカレントネットワークコンポーネントの脳内結合によるプロトタイプ抽出とロバストパターン認識の実現
- Authors: Naresh Balaji Ravichandran, Anders Lansner, Pawel Herman
- Abstract要約: 連想記憶は、大々的に繰り返される新皮質ネットワークによって実行される計算の有力候補である。
我々は,非教師付きヘビアン・ベイズ学習規則を用いて分散表現を学習するフィードフォワードネットワークに,繰り返しアトラクタネットワークを結合する。
本研究では, フィードフォワード駆動型内部(隠れた)表現のトレーニングにおいて, 繰り返しアトラクタコンポーネントが連想メモリを実装していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Associative memory has been a prominent candidate for the computation
performed by the massively recurrent neocortical networks. Attractor networks
implementing associative memory have offered mechanistic explanation for many
cognitive phenomena. However, attractor memory models are typically trained
using orthogonal or random patterns to avoid interference between memories,
which makes them unfeasible for naturally occurring complex correlated stimuli
like images. We approach this problem by combining a recurrent attractor
network with a feedforward network that learns distributed representations
using an unsupervised Hebbian-Bayesian learning rule. The resulting network
model incorporates many known biological properties: unsupervised learning,
Hebbian plasticity, sparse distributed activations, sparse connectivity,
columnar and laminar cortical architecture, etc. We evaluate the synergistic
effects of the feedforward and recurrent network components in complex pattern
recognition tasks on the MNIST handwritten digits dataset. We demonstrate that
the recurrent attractor component implements associative memory when trained on
the feedforward-driven internal (hidden) representations. The associative
memory is also shown to perform prototype extraction from the training data and
make the representations robust to severely distorted input. We argue that
several aspects of the proposed integration of feedforward and recurrent
computations are particularly attractive from a machine learning perspective.
- Abstract(参考訳): 連想記憶は、大規模に反復する新皮質ネットワークによって実行される計算の顕著な候補である。
連想記憶を実装するトラクターネットワークは、多くの認知現象の機械的説明を提供してきた。
しかし、アトラクタメモリモデルは、通常、メモリ間の干渉を避けるために直交パターンやランダムパターンを用いて訓練されるため、画像のような自然に発生する複雑な刺激に対して不可能である。
我々は,非教師付きヘビアン・ベイズ学習規則を用いて分散表現を学習するフィードフォワードネットワークと繰り返しアトラクタネットワークを組み合わせることで,この問題に対処する。
ネットワークモデルは、教師なし学習、ヘビアン可塑性、スパース分散活性化、スパース接続、柱状および層状皮質構造など、多くの既知の生物学的特性を組み込んでいる。
MNIST手書き桁データセットにおける複雑なパターン認識タスクにおけるフィードフォワードとリカレントネットワークコンポーネントの相乗効果を評価する。
我々は、recurrent attractorコンポーネントがfeedforward-driven internal (hidden)表現でトレーニングされたときに連想記憶を実装することを実証する。
また、連想メモリは、トレーニングデータからプロトタイプ抽出を行い、表現を強固に歪められた入力にすることができる。
提案するフィードフォワード計算と再帰計算の統合のいくつかの側面は、機械学習の観点から特に魅力的である。
関連論文リスト
- Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks [1.9389881806157312]
本稿では,時間ネットワークの表現を学習するための自己教師付き手法を提案する。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-08-22T22:50:46Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Spiking representation learning for associative memories [0.0]
本稿では、教師なし表現学習と連想記憶操作を行う新しい人工スパイクニューラルネットワーク(SNN)を提案する。
モデルの構造は新皮質列状構造から派生し,隠れた表現を学習するためのフィードフォワードプロジェクションと,連想記憶を形成するための繰り返しプロジェクションを組み合わせたものである。
論文 参考訳(メタデータ) (2024-06-05T08:30:11Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Benchmarking Hebbian learning rules for associative memory [0.0]
連想記憶は認知と計算の脳科学における重要な概念である。
ストレージ容量とプロトタイプ抽出に関する6つの異なる学習ルールをベンチマークする。
論文 参考訳(メタデータ) (2023-12-30T21:49:47Z) - Entangled Residual Mappings [59.02488598557491]
残余接続の構造を一般化するために、絡み合った残余写像を導入する。
絡み合い残余写像は、アイデンティティスキップ接続を特別な絡み合い写像に置き換える。
絡み合った写像は、様々な深層モデルにまたがる特徴の反復的洗練を保ちながら、畳み込みネットワークにおける表現学習プロセスに影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-06-02T19:36:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。