論文の概要: Fostering Event Compression using Gated Surprise
- arxiv url: http://arxiv.org/abs/2005.05704v1
- Date: Tue, 12 May 2020 11:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:06:57.770247
- Title: Fostering Event Compression using Gated Surprise
- Title(参考訳): ゲーテッドサプライズを用いたイベント圧縮
- Authors: Dania Humaidan, Sebastian Otte, Martin V. Butz
- Abstract要約: 生成的イベント予測モデルは、知覚モチーフデータをコンテキスト体験のチャンクに分割することによって形成される。
ここでは、このプロセスをモデル化した階層的、驚きに満ちたリカレントニューラルネットワークアーキテクチャを紹介する。
本モデルは,複数のイベント処理タスクにおいて,異なるイベント圧縮を開発することを示し,最高の性能を実現する。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our brain receives a dynamically changing stream of sensorimotor data. Yet,
we perceive a rather organized world, which we segment into and perceive as
events. Computational theories of cognitive science on event-predictive
cognition suggest that our brain forms generative, event-predictive models by
segmenting sensorimotor data into suitable chunks of contextual experiences.
Here, we introduce a hierarchical, surprise-gated recurrent neural network
architecture, which models this process and develops compact compressions of
distinct event-like contexts. The architecture contains a contextual LSTM
layer, which develops generative compressions of ongoing and subsequent
contexts. These compressions are passed into a GRU-like layer, which uses
surprise signals to update its recurrent latent state. The latent state is
passed forward into another LSTM layer, which processes actual dynamic sensory
flow in the light of the provided latent, contextual compression signals. Our
model shows to develop distinct event compressions and achieves the best
performance on multiple event processing tasks. The architecture may be very
useful for the further development of resource-efficient learning, hierarchical
model-based reinforcement learning, as well as the development of artificial
event-predictive cognition and intelligence.
- Abstract(参考訳): 私たちの脳は、動的に変化するセンサーモブターデータのストリームを受け取ります。
しかし、私たちはかなり組織化された世界を認識し、イベントとして分割し、認識します。
事象予測認知に関する認知科学の計算理論は、私たちの脳が、感覚運動データから適切な文脈体験のチャンクに分割することによって、生成的事象予測モデルを形成することを示唆している。
本稿では,この過程をモデル化し,異なるイベントライクなコンテキストのコンパクト圧縮を開発する階層型,サプライズゲート型リカレントニューラルネットワークアーキテクチャを紹介する。
このアーキテクチャは、継続およびその後のコンテキストの生成圧縮を開発する、コンテキストLSTM層を含んでいる。
これらの圧縮はGRUライクな層に渡され、サプライズ信号を使ってリカレント遅延状態を更新する。
潜時状態は別のLSTM層に転送され、供給された潜時圧縮信号の光で実際の動的感覚の流れを処理する。
本モデルでは,複数のイベント処理タスクにおいて,個別のイベント圧縮を開発し,最高のパフォーマンスを実現する。
このアーキテクチャは、リソース効率のよい学習、階層的モデルに基づく強化学習のさらなる発展、および人工的な事象予測認知と知性の開発に非常に有用である。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - A developmental approach for training deep belief networks [0.46699574490885926]
ディープ信念ネットワーク(Deep belief Network、DBN)は、知覚データから環境の豊かな内部表現を抽出できるニューラルネットワークである。
階層のすべての層にまたがる接続重みを共同で更新できるDBNの反復学習アルゴリズムiDBNを提案する。
我々の研究は、神経認知発達のモデリングにiDBNを使うことへの道を開いた。
論文 参考訳(メタデータ) (2022-07-12T11:37:58Z) - Developing hierarchical anticipations via neural network-based event
segmentation [14.059479351946386]
我々は、自律的に学習された潜在イベントコードによる階層的予測の開発をモデル化する。
本稿では,学習バイアスが緩やかに変化する潜在状態の発達を促進する階層的再帰型ニューラルネットワークアーキテクチャを提案する。
より高いレベルのネットワークは、潜伏状態が変化しがちな状況を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-06-04T18:54:31Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Latent Event-Predictive Encodings through Counterfactual Regularization [0.9449650062296823]
本稿では,新しい正則化方式を用いたSUGAR(Surprise-GAted Recurrent Neural Network)を提案する。
隠れたグラフ構造を交互に並べてシーケンスを生成する階層的シーケンス予測タスクでモデルをテストします。
論文 参考訳(メタデータ) (2021-05-12T18:30:09Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。