論文の概要: One system for learning and remembering episodes and rules
- arxiv url: http://arxiv.org/abs/2407.05884v1
- Date: Mon, 8 Jul 2024 12:44:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 15:50:25.639463
- Title: One system for learning and remembering episodes and rules
- Title(参考訳): エピソード・ルールの学習・記憶システム
- Authors: Joshua T. S. Hewson, Sabina J. Sloman, Marina Dubova,
- Abstract要約: 人間は個々のエピソードや一般化可能なルールを学習でき、時間とともに両方の獲得した知識を保持できる。
統計的学習の最近の研究から着想を得た結果,表現能力の過剰な1つのシステムは,エピソードとルールの両方を学習し,記憶することができることがわかった。
- 参考スコア(独自算出の注目度): 0.27309692684728604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans can learn individual episodes and generalizable rules and also successfully retain both kinds of acquired knowledge over time. In the cognitive science literature, (1) learning individual episodes and rules and (2) learning and remembering are often both conceptualized as competing processes that necessitate separate, complementary learning systems. Inspired by recent research in statistical learning, we challenge these trade-offs, hypothesizing that they arise from capacity limitations rather than from the inherent incompatibility of the underlying cognitive processes. Using an associative learning task, we show that one system with excess representational capacity can learn and remember both episodes and rules.
- Abstract(参考訳): 人間は個々のエピソードや一般化可能なルールを学習でき、時間とともに両方の獲得した知識を保持できる。
認知科学文献では,(1)個別のエピソードとルールの学習,(2)学習と記憶は,個別の相補的な学習システムを必要とする競合するプロセスとして概念化されることが多い。
統計的学習の最近の研究に触発されて、我々はこれらのトレードオフに挑戦し、基礎となる認知過程の固有の非互換性からではなく、キャパシティの限界から生じるという仮説を立てた。
連想学習タスクを用いて、過剰な表現能力を持つ1つのシステムがエピソードとルールの両方を学習し、記憶することができることを示す。
関連論文リスト
- Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - Curriculum effects and compositionality emerge with in-context learning in neural networks [15.744573869783972]
In-context learning (ICL) が可能なネットワークは、ルールが支配するタスクにおいて、人間のような学習や構成の振る舞いを再現できることを示す。
我々の研究は、創発性ICLがニューラルネットワークに、伝統的に帰属するものと根本的に異なる学習特性を持たせる方法を示している。
論文 参考訳(メタデータ) (2024-02-13T18:55:27Z) - Learning principle and mathematical realization of the learning
mechanism in the brain [0.0]
我々はこれを学習原理と呼び、全ての学習は入力データの確率を推定するのと等価である。
従来の教師付き学習は条件付き確率の推定に等価であり,教師付き学習をより効果的かつ一般化させることに成功した。
微分を用いた推定確率の値の定義法を提案し,事前知識を使わずに任意のデータセット上で教師なし学習を行うことを示す。
論文 参考訳(メタデータ) (2023-11-22T12:08:01Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - Learning by Applying: A General Framework for Mathematical Reasoning via
Enhancing Explicit Knowledge Learning [47.96987739801807]
本稿では,既存のモデル(バックボーン)を明示的な知識学習によって原則的に拡張する枠組みを提案する。
LeApでは,新しい問題知識表現パラダイムで知識学習を行う。
LeApはすべてのバックボーンのパフォーマンスを改善し、正確な知識を習得し、より解釈可能な推論プロセスを実現する。
論文 参考訳(メタデータ) (2023-02-11T15:15:41Z) - CIKQA: Learning Commonsense Inference with a Unified
Knowledge-in-the-loop QA Paradigm [120.98789964518562]
我々は,コモンセンス知識の大規模化により,すべてのコモンセンスをカバーできるような,各タスクに十分なトレーニングセットをアノテートすることは不可能である,と論じる。
モデルのコモンセンス推論能力について,2つの観点から検討する。
我々は、このベンチマークを知識-イン-ループ質問回答(CIKQA)を用いたCommonsense Inferenceと命名した。
論文 参考訳(メタデータ) (2022-10-12T14:32:39Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Learning Fast, Learning Slow: A General Continual Learning Method based
on Complementary Learning System [13.041607703862724]
本稿では,新しいデュアルメモリエクスペリエンス再生(ER)法であるCLS-ERを提案する。
決定境界を意味記憶と整合させながら、新たな知識を得る。
提案手法は,標準ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-01-29T15:15:23Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - Understanding Few-Shot Commonsense Knowledge Models [39.31365020474205]
トレーニングの常識知識モデルを数ショットで調査します。
数発の訓練システムから得られた知識に対する人間の品質評価は、完全に教師されたシステムから得られた知識の6%以内のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-01-01T19:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。