論文の概要: Transfer between long-term and short-term memory using Conceptors
- arxiv url: http://arxiv.org/abs/2003.11640v1
- Date: Wed, 11 Mar 2020 09:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:12:28.891161
- Title: Transfer between long-term and short-term memory using Conceptors
- Title(参考訳): コンセプタを用いた長期記憶と短期記憶の転送
- Authors: Anthony Strock (Mnemosyne, LaBRI, IMN), Nicolas Rougier (Mnemosyne,
LaBRI, IMN), Xavier Hinaut (Mnemosyne, LaBRI, IMN)
- Abstract要約: 短期成分と長期成分を組み合わせたワーキングメモリのリカレントニューラルネットワークモデルを提案する。
本稿では,概念上の標準的な操作が長期記憶を組み合わせ,その短期記憶への影響を説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a recurrent neural network model of working memory combining
short-term and long-term components. e short-term component is modelled using a
gated reservoir model that is trained to hold a value from an input stream when
a gate signal is on. e long-term component is modelled using conceptors in
order to store inner temporal patterns (that corresponds to values). We combine
these two components to obtain a model where information can go from long-term
memory to short-term memory and vice-versa and we show how standard operations
on conceptors allow to combine long-term memories and describe their effect on
short-term memory.
- Abstract(参考訳): 短期成分と長期成分を組み合わせたワーキングメモリのリカレントニューラルネットワークモデルを提案する。
e短期コンポーネントはゲート信号のオン時に入力ストリームから値を保持するように訓練されたゲート貯水池モデルを用いてモデル化される。
eの長期コンポーネントは、内部の時間パターン(値に対応する)を格納するために、概念を使ってモデル化される。
我々は,これら2つのコンポーネントを組み合わせることで,情報を長期記憶から短期記憶へ移行できるモデルを得るとともに,コンセプタの標準的な操作が長期記憶を結合し,短期記憶に与える影響を説明する方法を示す。
関連論文リスト
- MeMSVD: Long-Range Temporal Structure Capturing Using Incremental SVD [27.472705540825316]
本論文は、長時間の時間窓上での人間の行動を認識すること(最大数分)を目標とする長期映像理解について述べる。
本稿では,Singular Value Decomposition を用いて取得したメモリの低ランク近似に基づくアテンションベースのスキームの代替を提案する。
提案手法には2つの利点がある: (a) 複雑度を1桁以上削減し, (b) メモリベース計算の効率的な実装が可能である。
論文 参考訳(メタデータ) (2024-06-11T12:03:57Z) - MemoNav: Selecting Informative Memories for Visual Navigation [43.185016165039116]
画像ゴールナビゲーションのための新しいメモリ機構であるMemoNavを提案する。
MemoNavは、ナビゲーション性能を改善するために、エージェントの情報的短期記憶と長期記憶を保持する。
我々は、新しいマルチゴールナビゲーションデータセットでモデルを評価する。
論文 参考訳(メタデータ) (2022-08-20T05:57:21Z) - XMem: Long-Term Video Object Segmentation with an Atkinson-Shiffrin
Memory Model [137.50614198301733]
機能記憶を統一した長ビデオのためのビデオオブジェクトセグメンテーションアーキテクチャであるXMemを提案する。
独立して深く接続された複数の機能記憶を組み込んだアーキテクチャを開発する。
XMemは、ロングビデオデータセットにおける最先端のパフォーマンスを大幅に上回る。
論文 参考訳(メタデータ) (2022-07-14T17:59:37Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - RotLSTM: Rotating Memories in Recurrent Neural Networks [0.0]
LSTMの細胞状態(メモリ)を、新しいトレーニング可能な重みのセットによってパラメータ化された回転行列を用いて変更する概念を紹介します。
この追加により、bAbIデータセットのタスクのパフォーマンスが大幅に向上しました。
論文 参考訳(メタデータ) (2021-05-01T23:48:58Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Dynamic Memory based Attention Network for Sequential Recommendation [79.5901228623551]
DMAN(Dynamic Memory-based Attention Network)と呼ばれる新しい連続的推薦モデルを提案する。
長い動作シーケンス全体を一連のサブシーケンスに分割し、モデルをトレーニングし、ユーザの長期的な利益を維持するためにメモリブロックのセットを維持する。
動的メモリに基づいて、ユーザの短期的および長期的関心を明示的に抽出し、組み合わせて効率的な共同推薦を行うことができる。
論文 参考訳(メタデータ) (2021-02-18T11:08:54Z) - Memformer: A Memory-Augmented Transformer for Sequence Modeling [55.780849185884996]
本稿では、シーケンスモデリングのための効率的なニューラルネットワークであるMemformerを紹介する。
我々のモデルは長いシーケンスを処理する際に線形時間複雑性と一定メモリ空間複雑性を実現する。
論文 参考訳(メタデータ) (2020-10-14T09:03:36Z) - Sequential Recommender via Time-aware Attentive Memory Network [67.26862011527986]
本稿では,注意機構と繰り返し単位を改善するための時間ゲーティング手法を提案する。
また,長期と短期の嗜好を統合するマルチホップ・タイムアウェア・アテンテーティブ・メモリ・ネットワークを提案する。
提案手法は,候補探索タスクに対してスケーラブルであり,ドット積に基づくTop-Kレコメンデーションのための潜在因数分解の非線形一般化とみなすことができる。
論文 参考訳(メタデータ) (2020-05-18T11:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。