論文の概要: From seeing to remembering: Images with harder-to-reconstruct
representations leave stronger memory traces
- arxiv url: http://arxiv.org/abs/2302.10392v1
- Date: Tue, 21 Feb 2023 01:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:42:04.731062
- Title: From seeing to remembering: Images with harder-to-reconstruct
representations leave stronger memory traces
- Title(参考訳): 記憶から記憶へ:再構成が難しい画像は記憶の痕跡を強く残す
- Authors: Qi Lin, Zifan Li, John Lafferty, Ilker Yildirim
- Abstract要約: 本稿では,画像の特徴埋め込みを圧縮するためのスパース符号化モデルを提案する。
シーン画像のオープンな記憶可能性データセットにおいて、再構成誤差は記憶精度だけでなく、検索中の応答遅延も説明し、後者の場合、強力な視覚のみのモデルによって説明されるすべての分散が説明されることを示す。
- 参考スコア(独自算出の注目度): 4.012995481864761
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Much of what we remember is not due to intentional selection, but simply a
by-product of perceiving. This raises a foundational question about the
architecture of the mind: How does perception interface with and influence
memory? Here, inspired by a classic proposal relating perceptual processing to
memory durability, the level-of-processing theory, we present a sparse coding
model for compressing feature embeddings of images, and show that the
reconstruction residuals from this model predict how well images are encoded
into memory. In an open memorability dataset of scene images, we show that
reconstruction error not only explains memory accuracy but also response
latencies during retrieval, subsuming, in the latter case, all of the variance
explained by powerful vision-only models. We also confirm a prediction of this
account with 'model-driven psychophysics'. This work establishes reconstruction
error as a novel signal interfacing perception and memory, possibly through
adaptive modulation of perceptual processing.
- Abstract(参考訳): 私たちが覚えていることの多くは、意図的な選択ではなく、単に知覚の副産物です。
これは心のアーキテクチャに関する基礎的な疑問を提起する: 知覚は記憶とどのように相互作用し影響するか?
本稿では,メモリ耐久性に対する知覚処理に関する古典的な提案であるレベル・オブ・プロセッシング理論に触発されて,画像の特徴埋め込みを圧縮するためのスパース符号化モデルを提案し,このモデルからの復元残差がメモリにどのようにエンコードされるかを予測することを示す。
シーン画像のオープン記憶可能性データセットでは、復元誤差が記憶の正確性だけでなく、検索中の応答遅延も説明し、後者の場合、強力な視覚のみのモデルによって説明される全ての分散を推定する。
また,「モデル駆動精神物理学」による予測も確認した。
この研究は、おそらく知覚処理の適応的変調によって、新しい信号の対面認識と記憶として再構成誤差を確立する。
関連論文リスト
- Modeling Visual Memorability Assessment with Autoencoders Reveals Characteristics of Memorable Images [2.4861619769660637]
画像記憶可能性(英: Image memorability)とは、ある画像が他の画像よりも記憶されやすい現象である。
VGG16畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダを用いた視覚記憶の主観的体験をモデル化した。
我々は,記憶可能性と復元誤差の関係について検討し,空間表現の特異性を評価するとともに,記憶可能性の予測を目的としたGRUモデルを開発した。
論文 参考訳(メタデータ) (2024-10-19T22:58:33Z) - What do larger image classifiers memorise? [64.01325988398838]
トレーニング例は, モデルサイズにまたがって, 予想外の多彩な記憶軌跡を示す。
有効で一般的なモデル圧縮手法である知識蒸留は,記憶を阻害する傾向があり,一般化も改善する。
論文 参考訳(メタデータ) (2023-10-09T01:52:07Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Improving Image Recognition by Retrieving from Web-Scale Image-Text Data [68.63453336523318]
本稿では,メモリから抽出した各サンプルの重要性を学習するアテンションベースのメモリモジュールを提案する。
既存の手法と比較して,提案手法は無関係な検索例の影響を排除し,入力クエリに有益であるものを保持する。
我々は、ImageNet-LT、Places-LT、Webvisionのデータセットで最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-11T12:12:05Z) - Classification and Generation of real-world data with an Associative
Memory Model [0.0]
マルチモーダル・フレームワークを用いて,基本的な連想記憶モデルの能力を拡張する。
イメージとラベルの両方をモダリティとして保存することで、単一のメモリを使用してパターンを検索し、完了させることができる。
論文 参考訳(メタデータ) (2022-07-11T12:51:27Z) - A model of semantic completion in generative episodic memory [0.6690874707758508]
本稿では,生成エピソード記憶のための計算モデルを提案する。
このモデルは、意味論的に妥当な方法で、メモリトレースの欠落部分を完成させることができる。
また、エピソードメモリ実験をモデル化し、意味論的コングロレントコンテキストが常に非コングロレントメモリ実験よりもよくリコールされることを再現する。
論文 参考訳(メタデータ) (2021-11-26T15:14:17Z) - Associative Memories via Predictive Coding [37.59398215921529]
脳内の連想記憶は感覚ニューロンによって登録された活動パターンを受信し、記憶する。
本稿では,知覚ニューロンを介して外部刺激を受ける階層的生成ネットワークに基づいて,連想記憶を実現する新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2021-09-16T15:46:26Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z) - CNN with large memory layers [2.368995563245609]
この作業は、最近提案された製品キーメモリ構造であるcitelarge_Memoryを中心に、多くのコンピュータビジョンアプリケーションに実装されている。
メモリ構造は、ほぼすべてのニューラルネットワークアーキテクチャに拡張されるのに適した単純な計算プリミティブと見なすことができる。
論文 参考訳(メタデータ) (2021-01-27T20:58:20Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。