論文の概要: Working Memory for Online Memory Binding Tasks: A Hybrid Model
- arxiv url: http://arxiv.org/abs/2008.04208v2
- Date: Sat, 12 Dec 2020 08:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 17:29:25.297974
- Title: Working Memory for Online Memory Binding Tasks: A Hybrid Model
- Title(参考訳): オンラインメモリバインディングタスクのためのワーキングメモリ:ハイブリッドモデル
- Authors: Seyed Mohammad Mahdi Heidarpoor Yazdi, Abdolhossein Abbassian
- Abstract要約: ワーキングメモリ(Working Memory)は、情報をオンラインで保持し操作する脳モジュールである。
本研究では、単純なフィードフォワードネットワークをバランスの取れたランダムネットワークに結合するハイブリッドモデルを設計する。
我々の知る限り、フレキシブルメモリとしてのランダムネットワークがオンラインバインディングタスクにおいて重要な役割を果たすのは、これが初めてである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Working Memory is the brain module that holds and manipulates information
online. In this work, we design a hybrid model in which a simple feed-forward
network is coupled to a balanced random network via a read-write vector called
the interface vector. Three cases and their results are discussed similar to
the n-back task called, first-order memory binding task, generalized
first-order memory task, and second-order memory binding task. The important
result is that our dual-component model of working memory shows good
performance with learning restricted to the feed-forward component only. Here
we take advantage of the random network property without learning. Finally, a
more complex memory binding task called, a cue-based memory binding task, is
introduced in which a cue is given as input representing a binding relation
that prompts the network to choose the useful chunk of memory. To our
knowledge, this is the first time that random networks as a flexible memory is
shown to play an important role in online binding tasks. We may interpret our
results as a candidate model of working memory in which the feed-forward
network learns to interact with the temporary storage random network as an
attentional-controlling executive system.
- Abstract(参考訳): ワーキングメモリは、情報をオンラインで保持し操作する脳モジュールである。
本研究では,単純なフィードフォワードネットワークを,インタフェースベクトルと呼ばれる読み書きベクトルを介して,バランスのとれたランダムネットワークに結合するハイブリッドモデルを設計する。
3つのケースとその結果は、n-backタスク、一階メモリバインディングタスク、一般化一階メモリタスク、二階メモリバインディングタスクとよく似ている。
重要な結果として,作業メモリの2成分モデルでは,フィードフォワードコンポーネントのみに制限された学習による性能が向上した。
ここでは学習せずにランダムネットワーク特性を利用する。
最後に、より複雑なメモリバインディングタスクであるcueベースのメモリバインディングタスクが導入され、ネットワークが有用なメモリチャンクを選択するように促すバインディング関係を表す入力としてキューが与えられる。
我々の知る限り、フレキシブルメモリとしてのランダムネットワークがオンラインバインディングタスクにおいて重要な役割を果たすのは、これが初めてである。
我々は,フィードフォワードネットワークが一時記憶ランダムネットワークとのインタラクションを注意統制型実行システムとして学習する作業記憶の候補モデルとして,結果を解釈することができる。
関連論文リスト
- Universal Recurrent Event Memories for Streaming Data [0.0]
本稿では、リカレントニューラルネットワークのための新しいイベントメモリアーキテクチャ(MemNet)を提案する。
MemNetはキーと値のペアを格納し、アドレスとコンテンツの情報を分離する。
MemNetアーキテクチャはスカラー時系列、文字列上の論理演算子、自然言語処理に修正を加えることなく適用することができる。
論文 参考訳(メタデータ) (2023-07-28T17:40:58Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z) - Learning to Ignore: Long Document Coreference with Bounded Memory Neural
Networks [65.3963282551994]
我々は、すべてのエンティティをメモリに保持することは不要であると主張し、同時に少数のエンティティだけを追跡するメモリ拡張ニューラルネットワークを提案する。
a)OntoNotesとLitBankの高メモリ・計算要求モデルと競合する傾向にあり,(b)ルールベースの戦略よりも容易に効率の良いメモリ管理戦略を学習できることを示す。
論文 参考訳(メタデータ) (2020-10-06T15:16:31Z) - Distributed Associative Memory Network with Memory Refreshing Loss [5.5792083698526405]
メモリリフレッシングロス(MRL)を用いた分散連想メモリアーキテクチャ(DAM)について紹介する。
人間の脳の動作にインスパイアされた私たちのフレームワークは、複数のメモリブロックにまたがる分散表現でデータをエンコードします。
MRLにより、記憶されたメモリコンテンツから入力データを再生することにより、MANNは、入力データとタスク目的との関連性を強化することができる。
論文 参考訳(メタデータ) (2020-07-21T07:34:33Z) - Video Object Segmentation with Episodic Graph Memory Networks [198.74780033475724]
セグメント化モデルを更新する学習」という新しいアイデアに対処するために,グラフメモリネットワークが開発された。
我々は、完全に連結されたグラフとして構成されたエピソードメモリネットワークを利用して、フレームをノードとして保存し、エッジによってフレーム間の相関をキャプチャする。
提案したグラフメモリネットワークは、一発とゼロショットの両方のビデオオブジェクトセグメンテーションタスクをうまく一般化できる、巧妙だが原則化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-14T13:19:19Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。