論文の概要: Active Inference in Hebbian Learning Networks
- arxiv url: http://arxiv.org/abs/2306.05053v2
- Date: Thu, 22 Jun 2023 16:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 17:02:51.675982
- Title: Active Inference in Hebbian Learning Networks
- Title(参考訳): ヘビー学習ネットワークにおけるアクティブ推論
- Authors: Ali Safa, Tim Verbelen, Lars Keuninckx, Ilja Ocket, Andr\'e Bourdoux,
Francky Catthoor, Georges Gielen, Gert Cauwenberghs
- Abstract要約: 本研究は、局所的なヘビアン可塑性を備えた脳誘発ニューラルアンサンブルがアクティブ推論(AIF)を行う方法を研究する。
環境力学を捉える生成モデルは、2つの異なるヘビーアンアンサンブルからなるネットワークによって学習される。
提案したHebbian AIFアプローチは,リプレイバッファを必要とせず,Q-ラーニングよりも優れていた。
- 参考スコア(独自算出の注目度): 1.7781687406628341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work studies how brain-inspired neural ensembles equipped with local
Hebbian plasticity can perform active inference (AIF) in order to control
dynamical agents. A generative model capturing the environment dynamics is
learned by a network composed of two distinct Hebbian ensembles: a posterior
network, which infers latent states given the observations, and a state
transition network, which predicts the next expected latent state given current
state-action pairs. Experimental studies are conducted using the Mountain Car
environment from the OpenAI gym suite, to study the effect of the various
Hebbian network parameters on the task performance. It is shown that the
proposed Hebbian AIF approach outperforms the use of Q-learning, while not
requiring any replay buffer, as in typical reinforcement learning systems.
These results motivate further investigations of Hebbian learning for the
design of AIF networks that can learn environment dynamics without the need for
revisiting past buffered experiences.
- Abstract(参考訳): 本研究は、局所的なヒュービアン可塑性を有する脳にインスパイアされた神経アンサンブルが、動的エージェントを制御するためにアクティブ推論(aif)を行う方法について研究する。
環境力学をキャプチャする生成モデルは、2つの異なるヘビーアンアンサンブルからなるネットワークによって学習される: 観測された潜在状態を推論する後続のネットワークと、現在の状態-作用ペアが与えられた次の予測潜在状態を予測する状態遷移ネットワークである。
openai gym suiteのマウンテンカー環境を用いた実験を行い,様々なヘビーネットワークパラメータがタスク性能に及ぼす影響について検討した。
提案したHebbian AIFアプローチは,従来の強化学習システムのように,リプレイバッファを必要としないQ-ラーニングよりも優れていた。
これらの結果は,過去のバッファリング経験を再考することなく環境力学を学習できるAIFネットワークの設計において,ヘビアン学習のさらなる研究を動機付けている。
関連論文リスト
- Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations [0.0]
活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
論文 参考訳(メタデータ) (2023-05-28T16:52:25Z) - Spiking neural networks with Hebbian plasticity for unsupervised
representation learning [0.0]
教師なしの手順でデータから分散内部表現を学習するための新しいスパイクニューラルネットワークモデルを提案する。
オンライン相関に基づくHebbian-Bayesian学習と再配線機構を,前述した表現学習をスパイクニューラルネットワークに導入する。
我々は,非スパイクBCPNNに近い性能を示し,MNISTとF-MNISTの機械学習ベンチマークでトレーニングした場合,他のヘビーンのスパイクネットワークと競合することを示す。
論文 参考訳(メタデータ) (2023-05-05T22:34:54Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Initial Study into Application of Feature Density and
Linguistically-backed Embedding to Improve Machine Learning-based
Cyberbullying Detection [54.83707803301847]
この研究は、自動サイバーバブル検出に関するKaggleコンペティションで提供されたFormspringデータセットで実施された。
本研究は,サイバブリング検出におけるニューラルネットワークの有効性と分類器性能と特徴密度の相関性を確認した。
論文 参考訳(メタデータ) (2022-06-04T03:17:15Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Training Convolutional Neural Networks With Hebbian Principal Component
Analysis [10.026753669198108]
ヘブリアン学習は、ニューラルネットワークの下層または高層を訓練するために使用することができる。
私たちは、HWTA(Hebbian Winner Takes All)戦略の代わりに、非線形のHebbianプリンシパルコンポーネント分析(HPCA)学習ルールを使用します。
特にHPCAルールは、CIFAR-10イメージデータセットから関連する特徴を抽出するために、畳み込みニューラルネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2020-12-22T18:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。