論文の概要: Mathematical model bridges disparate timescales of lifelong learning
- arxiv url: http://arxiv.org/abs/2206.03954v1
- Date: Wed, 8 Jun 2022 15:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 16:11:54.099669
- Title: Mathematical model bridges disparate timescales of lifelong learning
- Title(参考訳): 生涯学習の時間スケールが異なる数学的モデルブリッジ
- Authors: Mingzhen Lu, Tyler Marghetis, Vicky Chuqiao Yang
- Abstract要約: ネストした学習の時間スケールを統一する最小限の定量的モデルを提案する。
我々のモデルは、それまでの異なるタイムスケールを結びつけて、スキル獲得のタイムコースの統一的な説明を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelong learning occurs on timescales ranging from minutes to decades.
People can lose themselves in a new skill, practicing for hours until
exhausted. And they can pursue mastery over days or decades, perhaps abandoning
old skills entirely to seek out new challenges. A full understanding of
learning requires an account that integrates these timescales. Here, we present
a minimal quantitative model that unifies the nested timescales of learning.
Our dynamical model recovers classic accounts of skill acquisition, and
describes how learning emerges from moment-to-moment dynamics of motivation,
fatigue, and work, while also situated within longer-term dynamics of skill
selection, mastery, and abandonment. We apply this model to explore the
benefits and pitfalls of a variety of training regimes and to characterize
individual differences in motivation and skill development. Our model connects
previously disparate timescales -- and the subdisciplines that typically study
each timescale in isolation -- to offer a unified account of the timecourse of
skill acquisition.
- Abstract(参考訳): 生涯学習は数分から数十年の時間尺度で起こる。
人々は新しいスキルで自分自身を失い、疲れ果てるまで何時間も練習します。
そして、何日も何十年もかけて熟達を追求し、おそらく新しい挑戦を求めるために、古いスキルを完全に放棄することができる。
学習の完全な理解には、これらの時間スケールを統合するアカウントが必要です。
ここでは,学習のネストした時間尺度を統一する最小量的モデルを提案する。
私たちの力学モデルは、スキル獲得の古典的な説明を復元し、モチベーション、疲労、仕事の瞬間的ダイナミクスから学習がどのように生まれるかを説明し、スキルの選択、熟達、放棄の長期的なダイナミクスにも位置します。
このモデルを,さまざまなトレーニングレジームのメリットと落とし穴を探求し,モチベーションとスキル開発における個人差を特徴付けるために適用する。
私たちのモデルは、以前異なるタイムスケール – と、通常、個別に各タイムスケールを研究するサブディシデント – を結びつけて、スキル獲得のタイムコースを統一的に説明します。
関連論文リスト
- Benchmarking Continual Learning from Cognitive Perspectives [14.867136605254975]
継続的な学習は、古い概念を破滅的に忘れることなく、継続的に知識を取得し、伝達する問題に対処する。
連続学習モデルの認知特性と評価方法にはミスマッチがある。
本稿では,モデル認知能力と評価指標を統一評価パラダイムに統合することを提案する。
論文 参考訳(メタデータ) (2023-12-06T06:27:27Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Learning Temporally Extended Skills in Continuous Domains as Symbolic
Actions for Planning [2.642698101441705]
長期計画と継続的な制御能力の両方を必要とする問題は、既存の強化学習エージェントに重大な課題をもたらす。
本稿では,環境の計画状態の象徴的抽象化において,継続的制御のための時間的拡張スキルとフォワードモデルとをリンクする新しい階層型強化学習エージェントを提案する。
論文 参考訳(メタデータ) (2022-07-11T17:13:10Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Towards continual task learning in artificial neural networks: current
approaches and insights from neuroscience [0.0]
人間や他の動物が、多様で、しばしば干渉し、知識の範囲を学習する能力は、自然知性の目印である。
人工知能がさまざまなタスクやドメインをまたいで学習できることは、人工知能の明確な目標である。
論文 参考訳(メタデータ) (2021-12-28T13:50:51Z) - Example-Driven Model-Based Reinforcement Learning for Solving
Long-Horizon Visuomotor Tasks [85.56153200251713]
長軸ビズモータタスクの完了に適したプリミティブスキルを学習するためのモデルベースRL手法EMBRを紹介する。
フランカ・エミカのロボットアームでは、EMBRによってロボットは85%の成功率で3つの長い水平視運動タスクを完了できることがわかった。
論文 参考訳(メタデータ) (2021-09-21T16:48:07Z) - Learning Temporal Dynamics from Cycles in Narrated Video [85.89096034281694]
時が経つにつれて世界がどのように変化するかをモデル化する学習問題に対する自己監督型ソリューションを提案します。
私たちのモデルは、前方および後方の時間を予測するためにモダリティに依存しない関数を学習します。
将来的な動作の予測や画像の時間的順序付けなど,様々なタスクに対して,学習されたダイナミクスモデルを適用する。
論文 参考訳(メタデータ) (2021-01-07T02:41:32Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。