論文の概要: A Biologically Plausible Audio-Visual Integration Model for Continual
Learning
- arxiv url: http://arxiv.org/abs/2007.08855v2
- Date: Tue, 20 Jul 2021 09:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:05:13.086168
- Title: A Biologically Plausible Audio-Visual Integration Model for Continual
Learning
- Title(参考訳): 連続学習のための生物学的に妥当な視聴覚統合モデル
- Authors: Wenjie Chen, Fengtong Du, Ye Wang, Lihong Cao
- Abstract要約: 生物学的に妥当なオーディオ視覚統合モデル(AVIM)を提案する。
マルチコンパートメントのHodgkin-Huxleyニューロンを用いてモデルを構築し、カルシウムベースのシナプスタギングとキャプチャをモデルの学習規則として採用する。
実験の結果,提案したAVIMは,最先端の連続学習性能を達成できることがわかった。
- 参考スコア(独自算出の注目度): 7.680515385940673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of catastrophic forgetting has a history of more than 30 years
and has not been completely solved yet. Since the human brain has natural
ability to perform continual lifelong learning, learning from the brain may
provide solutions to this problem. In this paper, we propose a novel
biologically plausible audio-visual integration model (AVIM) based on the
assumption that the integration of audio and visual perceptual information in
the medial temporal lobe during learning is crucial to form concepts and make
continual learning possible. Specifically, we use multi-compartment
Hodgkin-Huxley neurons to build the model and adopt the calcium-based synaptic
tagging and capture as the model's learning rule. Furthermore, we define a new
continual learning paradigm to simulate the possible continual learning process
in the human brain. We then test our model under this new paradigm. Our
experimental results show that the proposed AVIM can achieve state-of-the-art
continual learning performance compared with other advanced methods such as
OWM, iCaRL and GEM. Moreover, it can generate stable representations of objects
during learning. These results support our assumption that concept formation is
essential for continuous lifelong learning and suggest the proposed AVIM is a
possible concept formation mechanism.
- Abstract(参考訳): 壊滅的な記憶の問題は30年以上の歴史があり、まだ完全には解決されていない。
人間の脳は生涯学習を行う自然な能力を持っているため、脳からの学習はこの問題の解決策となるかもしれない。
本稿では,学習中の中側頭葉における聴覚情報と視覚情報の統合が概念形成に不可欠であり,連続的な学習を可能にすることを前提として,生物学的に妥当な音声視覚統合モデル(AVIM)を提案する。
具体的には,マルチコンパートメントのHodgkin-Huxleyニューロンを用いてモデルを構築し,カルシウムベースのシナプスタギングとキャプチャをモデルの学習規則として採用する。
さらに,人間の脳内での連続学習プロセスをシミュレートするために,新たな連続学習パラダイムを定義する。
そして、この新しいパラダイムの下でモデルをテストします。
実験の結果,提案手法はOWM, iCaRL, GEMなどの先進的な手法と比較して,最先端の連続学習性能を達成可能であることがわかった。
さらに、学習中にオブジェクトの安定した表現を生成することもできる。
これらの結果は,概念形成が連続的な生涯学習に不可欠であるという私たちの仮定を支持し,提案したAVIMが概念形成機構の可能性を示唆している。
関連論文リスト
- Advancing Brain Imaging Analysis Step-by-step via Progressive Self-paced Learning [0.5840945370755134]
適応型・進行型ペーシング・蒸留機構を応用したPSPD(Progressive Self-Paced Distillation)フレームワークを提案する。
我々は、アルツハイマー病神経画像イニシアチブ(ADNI)データセットを用いて、様々な畳み込みニューラルネットワークにおけるPSPDの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2024-07-23T02:26:04Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Meta-Learning in Spiking Neural Networks with Reward-Modulated STDP [2.179313476241343]
本研究では,海馬と前頭前皮質にインスパイアされた生物工学的メタラーニングモデルを提案する。
我々の新しいモデルはスパイクベースのニューロモーフィックデバイスに容易に適用でき、ニューロモーフィックハードウェアにおける高速な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-07T13:08:46Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Learning Temporal Dynamics from Cycles in Narrated Video [85.89096034281694]
時が経つにつれて世界がどのように変化するかをモデル化する学習問題に対する自己監督型ソリューションを提案します。
私たちのモデルは、前方および後方の時間を予測するためにモダリティに依存しない関数を学習します。
将来的な動作の予測や画像の時間的順序付けなど,様々なタスクに対して,学習されたダイナミクスモデルを適用する。
論文 参考訳(メタデータ) (2021-01-07T02:41:32Z) - Brain-inspired global-local learning incorporated with neuromorphic
computing [35.70151531581922]
我々は,脳に触発されたメタラーニングパラダイムと,神経力学とシナプス可塑性を取り入れた識別可能なスパイキングモデルを導入することで,ニューロモルフィックハイブリッド学習モデルを報告した。
ニューロモルフィック・ビジョン・センサにおける数ショット学習、連続学習、フォールトトレランス学習を含む複数のタスクにおいて、このモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-05T04:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。