論文の概要: Memory semantization through perturbed and adversarial dreaming
- arxiv url: http://arxiv.org/abs/2109.04261v1
- Date: Thu, 9 Sep 2021 13:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 22:24:18.327969
- Title: Memory semantization through perturbed and adversarial dreaming
- Title(参考訳): 摂動と敵の夢を通してのメモリセマンティゼーション
- Authors: Nicolas Deperrois, Mihai A. Petrovici, Walter Senn, and Jakob Jordan
- Abstract要約: 本稿では, 高速眼球運動(REM)ドリームが, 効率的なメモリセマンティゼーションに欠かせないことを提案する。
我々はGAN(Generative Adversarial Network)にインスパイアされた階層的なフィードフォワードとフィードバック経路を備えた皮質アーキテクチャを実装した。
以上の結果から,REM睡眠時の敵の夢は記憶内容の抽出に不可欠であり,NREM睡眠時の夢は雑音の知覚入力に対する潜伏表現の堅牢性を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical theories of memory consolidation emphasize the importance of replay
in extracting semantic information from episodic memories. However, the
characteristic creative nature of dreams suggests that memory semantization may
go beyond merely replaying previous experiences. We propose that
rapid-eye-movement (REM) dreaming is essential for efficient memory
semantization by randomly combining episodic memories to create new, virtual
sensory experiences. We support this hypothesis by implementing a cortical
architecture with hierarchically organized feedforward and feedback pathways,
inspired by generative adversarial networks (GANs). Learning in our model is
organized across three different global brain states mimicking wakefulness,
non-REM (NREM) and REM sleep, optimizing different, but complementary objective
functions. We train the model in an unsupervised fashion on standard datasets
of natural images and evaluate the quality of the learned representations. Our
results suggest that adversarial dreaming during REM sleep is essential for
extracting memory contents, while perturbed dreaming during NREM sleep improves
robustness of the latent representation to noisy sensory inputs. The model
provides a new computational perspective on sleep states, memory replay and
dreams and suggests a cortical implementation of GANs.
- Abstract(参考訳): 記憶統合の古典的理論は、エピソード記憶から意味情報を抽出する際のリプレイの重要性を強調している。
しかし、夢の独特な創造性は、記憶のセマンティゼーションが単に以前の体験を再生するだけではないことを示唆している。
本稿では,エピソディックメモリをランダムに組み合わせ,新たな仮想感覚体験を創造することにより,効率的な記憶分離を実現するためにはrem(rapid-eye-movement)ドリームが不可欠であることを示す。
我々は,階層的に組織化されたフィードフォワードとフィードバックの経路を用いて,gans(generative adversarial network)にインスパイアされた皮質アーキテクチャを実装することで,この仮説を支持する。
我々のモデルにおける学習は、覚醒状態、非REM睡眠(NREM)、REM睡眠を模倣し、異なるが相補的な目的関数を最適化する3つの異なる脳状態にまたがって構成される。
我々は、自然画像の標準データセット上で教師なしの方法でモデルを訓練し、学習した表現の品質を評価する。
以上の結果から,レム睡眠時の逆夢は記憶内容の抽出に不可欠であり,nrem睡眠時の摂動ドリームは雑音の知覚入力に対する潜在表現の頑健性を改善することが示唆された。
このモデルは、睡眠状態、記憶再生、夢に関する新しい計算的視点を提供し、GANの皮質的実装を提案する。
関連論文リスト
- MuDreamer: Learning Predictive World Models without Reconstruction [58.0159270859475]
本稿では,DreamerV3アルゴリズムに基づく堅牢な強化学習エージェントであるMuDreamerについて述べる。
本手法は,Atari100kベンチマークにおいて,より高速なトレーニングの恩恵を受けながら,同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T22:09:01Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Wake-Sleep Consolidated Learning [9.596781985154927]
視覚分類タスクにおける深層ニューラルネットワークの性能向上を目的としたWake-Sleep Consolidated Learningを提案する。
本手法は、異なる覚醒相と睡眠相の同期を通して連続的に学習する。
提案手法の有効性を3つのベンチマークデータセットで評価した。
論文 参考訳(メタデータ) (2023-12-06T18:15:08Z) - Saliency-Guided Hidden Associative Replay for Continual Learning [13.551181595881326]
継続学習(Continuous Learning)は、人間の学習に似た一連のタスクを通じてニューラルネットワークをトレーニングすることに焦点を当てた、次世代AIの急成長する領域である。
本稿では,継続的学習のためのSaliency Guided Hidden Associative Replayを提案する。
この新しいフレームワークは、アソシエイトメモリをリプレイベースの戦略でシナジする。SHARCは主にスパースメモリエンコーディングを通じて、有能なデータセグメントをアーカイブする。
論文 参考訳(メタデータ) (2023-10-06T15:54:12Z) - Learning beyond sensations: how dreams organize neuronal representations [1.749248408967819]
仮想体験の生成を通じて表現を整理する2つの相補的な学習原理について論じる。
これらの原理は、既知の皮質構造や力学、睡眠の現象学と互換性がある。
論文 参考訳(メタデータ) (2023-08-03T15:45:12Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Saliency-Augmented Memory Completion for Continual Learning [8.243137410556495]
忘れる方法は、継続的な学習に対処しなければならない問題である。
本稿では,連続学習のための新たなサリエンシ強化メモリ補完フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-26T18:06:39Z) - Continual learning benefits from multiple sleep mechanisms: NREM, REM,
and Synaptic Downscaling [51.316408685035526]
先行学習を失うことなく、新しいタスクやスキルを連続して学習することは、人工ニューラルネットワークと生物学的ニューラルネットワークの両方にとって、計算上の課題である。
本稿では,3つの異なる睡眠成分のモデル化が,人工ニューラルネットワークの連続学習にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-09-09T13:45:27Z) - The Tensor Brain: A Unified Theory of Perception, Memory and Semantic
Decoding [16.37225919719441]
本稿では,認識と記憶の統一的計算理論を提案する。
我々のモデルでは、知覚、エピソード記憶、セマンティック記憶は異なる機能モードと操作モードで実現される。
論文 参考訳(メタデータ) (2021-09-27T23:32:44Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。