論文の概要: One-shot learning for the long term: consolidation with an artificial
hippocampal algorithm
- arxiv url: http://arxiv.org/abs/2102.07503v1
- Date: Mon, 15 Feb 2021 12:07:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 07:34:02.181984
- Title: One-shot learning for the long term: consolidation with an artificial
hippocampal algorithm
- Title(参考訳): 長期学習のためのワンショット学習--人工海馬アルゴリズムによる統合
- Authors: Gideon Kowadlo, Abdelrahman Ahmed, David Rawlinson
- Abstract要約: 従来の概念を忘れることなく、将来的な知識を同化して、少人数の学習は長期的なものであるべきだと我々は主張する。
人工海馬アルゴリズムであるAHAが,新皮質に類似した従来のMLモデルで使用できるかどうかを検討した。
結果は、ahaの追加により、システムはワンショットで学習し、破滅的な忘れることなく長期的な知識を統合できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard few-shot experiments involve learning to efficiently match
previously unseen samples by class. We claim that few-shot learning should be
long term, assimilating knowledge for the future, without forgetting previous
concepts. In the mammalian brain, the hippocampus is understood to play a
significant role in this process, by learning rapidly and consolidating
knowledge to the neocortex over a short term period. In this research we tested
whether an artificial hippocampal algorithm, AHA, could be used with a
conventional ML model analogous to the neocortex, to achieve one-shot learning
both short and long term. The results demonstrated that with the addition of
AHA, the system could learn in one-shot and consolidate the knowledge for the
long term without catastrophic forgetting. This study is one of the first
examples of using a CLS model of hippocampus to consolidate memories, and it
constitutes a step toward few-shot continual learning.
- Abstract(参考訳): 標準的な少数ショット実験は、クラスごとに未発見のサンプルを効率的にマッチングする学習を伴う。
従来の概念を忘れることなく、将来的な知識を同化して、少人数の学習は長期的なものであるべきだと我々は主張する。
哺乳類の脳では、海馬は短期間で学習し、短期的に新皮質に知識を統合することで、この過程において重要な役割を果たすと理解されている。
本研究では, 人工海馬アルゴリズムであるAHAが, 新皮質に類似した従来のMLモデルを用いて, 短期・長期のワンショット学習が可能かどうかを検証した。
結果は、ahaを添加することで、システムは一発で学習し、破滅的な忘れることなく長期的な知識を統合できることを示した。
本研究は、海馬のCLSモデルを用いて記憶を集約した最初の例の1つであり、連続学習へのステップを構成する。
関連論文リスト
- Gradual Learning: Optimizing Fine-Tuning with Partially Mastered Knowledge in Large Language Models [51.20499954955646]
大規模言語モデル(LLM)は、事前学習期間中に大量のテキストコーパスから膨大な量の知識を取得する。
微調整や推論のような後段では、モデルは初期訓練でカバーされていない知識に遭遇する可能性がある。
本稿では,モデル全体のテスト精度と知識保持性を改善するための2段階の微調整戦略を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:35:16Z) - HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models [24.529215038221956]
我々は,ヒトの長期記憶の海馬索引付け理論に触発された新しい検索フレームワークであるHippoRAGを紹介する。
その結果,本手法は最先端の手法を最大20%向上させることができた。
提案手法は,既存の手法に及ばない新たなシナリオに対処することができる。
論文 参考訳(メタデータ) (2024-05-23T17:47:55Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - A Novel Ontology-guided Attribute Partitioning Ensemble Learning Model
for Early Prediction of Cognitive Deficits using Quantitative Structural MRI
in Very Preterm Infants [3.731292216299279]
脳の成熟と幾何学的特徴は、後の神経発達障害を予測する機械学習モデルで利用することができる。
我々は,OAPアンサンブル学習(OAP-EL)と呼ばれるアンサンブル学習フレームワークを開発した。
OAP-ELを用いて2歳児の認知障害を定量的な脳成熟度と形態的特徴を用いて予測した。
論文 参考訳(メタデータ) (2022-02-08T20:26:42Z) - Mixture-of-Variational-Experts for Continual Learning [0.0]
学習と忘れのトレードオフを促進する最適原理を提案する。
我々はMixture-of-Variational-Experts (MoVE)と呼ばれる連続学習のためのニューラルネットワーク層を提案する。
MNISTおよびCIFAR10データセットの変種に関する実験は、MoVE層の競合性能を示す。
論文 参考訳(メタデータ) (2021-10-25T06:32:06Z) - A Biologically Plausible Audio-Visual Integration Model for Continual
Learning [7.680515385940673]
生物学的に妥当なオーディオ視覚統合モデル(AVIM)を提案する。
マルチコンパートメントのHodgkin-Huxleyニューロンを用いてモデルを構築し、カルシウムベースのシナプスタギングとキャプチャをモデルの学習規則として採用する。
実験の結果,提案したAVIMは,最先端の連続学習性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-07-17T09:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。