論文の概要: Estimating the energy requirements for long term memory formation
- arxiv url: http://arxiv.org/abs/2301.09565v1
- Date: Mon, 16 Jan 2023 13:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 13:50:14.935367
- Title: Estimating the energy requirements for long term memory formation
- Title(参考訳): 長期記憶形成のためのエネルギー要件の推定
- Authors: Maxime Girard, Jiamu Jiang, Mark CW van Rossum
- Abstract要約: 脳は代謝エネルギーを消費して情報を処理し、記憶を保存する。
例えば、ショウジョウバエの記憶形成に要するエネルギーは、その後の飢餓によって寿命が短くなる。
生物記憶ストレージは高価だが,その原因は分かっていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brains consume metabolic energy to process information, but also to store
memories. The energy required for memory formation can be substantial, for
instance in fruit flies memory formation leads to a shorter lifespan upon
subsequent starvation (Mery and Kawecki, 2005). Here we estimate that the
energy required corresponds to about 10mJ/bit and compare this to biophysical
estimates as well as energy requirements in computer hardware. We conclude that
biological memory storage is expensive, but the reason behind it is not known.
- Abstract(参考訳): 脳は代謝エネルギーを消費して情報を処理し、記憶も保存する。
記憶形成に必要なエネルギーは、例えば、果実のハエの記憶形成では、その後の飢餓(mery and kawecki, 2005)によって寿命が短くなる(mery and kawecki)。
ここでは,所要エネルギーは約10mJ/bitと推定し,これを生物物理学的推定値とコンピュータハードウェアのエネルギー要求値と比較する。
生体記憶ストレージは高価であるが、その背後にある理由は分かっていない。
関連論文リスト
- Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Ever-Evolving Memory by Blending and Refining the Past [30.63352929849842]
CREEMは長期会話のための新しい記憶システムである。
過去と現在の情報をシームレスに接続すると同時に、障害情報を忘れる能力も備えている。
論文 参考訳(メタデータ) (2024-03-03T08:12:59Z) - Memoria: Resolving Fateful Forgetting Problem through Human-Inspired Memory Architecture [5.9360953869782325]
本稿では,人工ニューラルネットワークのメモリシステムであるMemoriaを紹介する。
その結果, 分類, 言語モデリング, 分類の多様なタスクにおいて, Memoriaの有効性が証明された。
エングラム分析により、記憶は人間の記憶の特徴である優位性、傾向、時間的連続効果を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-04T09:40:46Z) - Memory Encoding Model [14.943061215875655]
メモリ関連情報を入力として付加することにより,脳エンコーディングモデルの新しいクラスを探索する。
視覚記憶の認知タスクでは、視覚的でない脳は、これまで見られた画像から予測可能であることが分かりました。
論文 参考訳(メタデータ) (2023-08-02T14:29:10Z) - Augmenting Language Models with Long-Term Memory [142.04940250657637]
既存の大規模言語モデル(LLM)では、入力長制限のため、固定サイズの入力しかできない。
本稿では,Long-Term Memory (LongMem) を付加した言語モデルを提案する。
論文 参考訳(メタデータ) (2023-06-12T15:13:39Z) - Competitive plasticity to reduce the energetic costs of learning [0.0]
フィードフォワードニューラルネットワークの学習に必要なエネルギーについて検討する。
エネルギーを節約する2つの可塑性制限アルゴリズムを提案する。
その結果、生物の可塑性をよりよく理解し、人工学習と生物学習のマッチングがより良くなるかもしれない。
論文 参考訳(メタデータ) (2023-04-04T12:01:57Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - A bio-inspired implementation of a sparse-learning spike-based
hippocampus memory model [0.0]
本研究では,海馬に基づくバイオインスパイアされた新しい記憶モデルを提案する。
記憶を覚えたり、キューから思い出したり、同じキューで他の人を学ぼうとする時の記憶を忘れたりできる。
この研究は、完全に機能するバイオインスパイアされたスパイクベースの海馬記憶モデルの最初のハードウェア実装を示す。
論文 参考訳(メタデータ) (2022-06-10T07:48:29Z) - Learning to Rehearse in Long Sequence Memorization [107.14601197043308]
既存の推論タスクは、しばしば、推論中に入力内容が常にアクセス可能であるという重要な仮定を持つ。
メモリ拡張ニューラルネットワークは、人間のような書き込み読み取りメモリを導入し、1回のパスで長い入力シーケンスを圧縮し記憶する。
しかし、2つの重大な欠点がある: 1) メモリを現在の情報から継続的に更新し、必然的に初期の内容を忘れる; 2) 重要な情報を区別せず、全てのコンテンツを平等に扱う。
本稿では,履歴サンプリング装置を用いた自己教師型リハーサルによる長期記憶向上のためのリハーサルメモリを提案する。
論文 参考訳(メタデータ) (2021-06-02T11:58:30Z) - Not All Memories are Created Equal: Learning to Forget by Expiring [49.053569908417636]
本稿では,重要情報の保持を学習し,無関係情報を期限とするExpire-Spanを提案する。
この記憶を忘れることで、トランスフォーマーは数十万以上の前のタイムステップに効率的に参加することができます。
私たちは、Expire-Spanが数万の大きさの記憶にスケールできることを示し、信じられないほど長いコンテキストタスクに新しい状態を設定します。
論文 参考訳(メタデータ) (2021-05-13T20:50:13Z) - Self-Attentive Associative Memory [69.40038844695917]
我々は、個々の体験(記憶)とその発生する関係(関連記憶)の記憶を分離することを提案する。
機械学習タスクの多様性において,提案した2メモリモデルと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-02-10T03:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。