論文の概要: Theta sequences as eligibility traces: a biological solution to credit
assignment
- arxiv url: http://arxiv.org/abs/2305.08124v1
- Date: Sun, 14 May 2023 11:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:25:47.534447
- Title: Theta sequences as eligibility traces: a biological solution to credit
assignment
- Title(参考訳): 資格トレースとしてのthetaシークエンス:クレジット割り当てに対する生物学的解決策
- Authors: Tom M George
- Abstract要約: 信用割当問題(例えば、RLにおける政策評価)は、しばしば前の状態を通して予測エラーをブートストラップする必要がある。
本研究では,海馬におけるテータ振動時の神経活動の連鎖であるテータ配列を解法として提案する。
テータ配列のモデルの解析とシミュレートにより、既存の$mathsfO$ msニューロンのメモリトレースが効果的に拡張されるような圧縮挙動を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Credit assignment problems, for example policy evaluation in RL, often
require bootstrapping prediction errors through preceding states \textit{or}
maintaining temporally extended memory traces; solutions which are unfavourable
or implausible for biological networks of neurons. We propose theta sequences
-- chains of neural activity during theta oscillations in the hippocampus,
thought to represent rapid playthroughs of awake behaviour -- as a solution. By
analysing and simulating a model for theta sequences we show they compress
behaviour such that existing but short $\mathsf{O}(10)$ ms neuronal memory
traces are effectively extended allowing for bootstrap-free credit assignment
without long memory traces, equivalent to the use of eligibility traces in
TD($\lambda$).
- Abstract(参考訳): クレジット代入問題(例えば、RLにおけるポリシー評価)は、しばしば前回の状態 \textit{or} が時間的に拡張されたメモリトレースを維持することで予測エラーをブートストラップする必要がある。
海馬のテタ振動における神経活動の連鎖、覚醒行動の迅速なプレイスルーを表すと考えられるテタ配列を解法として提案する。
thetaシーケンスのモデルを解析してシミュレートすることにより、既存のだが短い$\mathsf{o}(10)$ msのニューロンメモリトレースが効果的に拡張され、長いメモリトレースなしでブートストラップフリーのクレジット割り当てが可能になる。
関連論文リスト
- Long Short-term Memory with Two-Compartment Spiking Neuron [64.02161577259426]
LSTM-LIFとよばれる,生物学的にインスパイアされたLong Short-Term Memory Leaky Integrate-and-Fireのスパイキングニューロンモデルを提案する。
実験結果は,時間的分類タスクの多種多様な範囲において,優れた時間的分類能力,迅速な訓練収束,ネットワークの一般化性,LSTM-LIFモデルの高エネルギー化を実証した。
したがって、この研究は、新しいニューロモルフィック・コンピューティング・マシンにおいて、困難な時間的処理タスクを解決するための、無数の機会を開放する。
論文 参考訳(メタデータ) (2023-07-14T08:51:03Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Biologically-plausible backpropagation through arbitrary timespans via
local neuromodulators [1.1744028458220428]
本研究は, 局所神経刺激薬のシナプス外拡散は, 生物学的可視性の範囲内に存在する効果的なバックプロパゲーションの手段となる可能性が示唆された。
近似勾配に基づく更新ルールであるModPropが任意の時間ステップで信用情報を伝搬することを示す。
論文 参考訳(メタデータ) (2022-06-02T23:38:10Z) - Brain inspired neuronal silencing mechanism to enable reliable sequence
identification [0.0]
本稿では,フィードバックループのない高速フィードフォワードシーケンス識別ネットワーク(ID-net)の実験的なメカニズムを提案する。
このメカニズムは、最近のスパイク活動の後、一時的にニューロンを沈黙させる。
提示されたメカニズムは、高度なANNアルゴリズムのための新しい水平線を開放する。
論文 参考訳(メタデータ) (2022-03-24T12:15:02Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Point process models for sequence detection in high-dimensional neural
spike trains [29.073129195368235]
本研究では,個々のスパイクレベルにおける微細なシーケンスを特徴付ける点過程モデルを開発する。
この超スパースなシーケンスイベント表現は、スパイクトレインモデリングの新しい可能性を開く。
論文 参考訳(メタデータ) (2020-10-10T02:21:44Z) - Plateau Phenomenon in Gradient Descent Training of ReLU networks:
Explanation, Quantification and Avoidance [0.0]
一般に、ニューラルネットワークは勾配型最適化法によって訓練される。
トレーニング開始時に損失関数は急速に低下するが,比較的少数のステップの後に著しく低下する。
本研究の目的は,高原現象の根本原因の同定と定量化である。
論文 参考訳(メタデータ) (2020-07-14T17:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。