論文の概要: Decomposed Inductive Procedure Learning
- arxiv url: http://arxiv.org/abs/2110.13233v1
- Date: Mon, 25 Oct 2021 19:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 09:09:11.180096
- Title: Decomposed Inductive Procedure Learning
- Title(参考訳): 分解型インダクティブ・プロシージャ学習
- Authors: Daniel Weitekamp, Christopher MacLellan, Erik Harpstead, Kenneth
Koedinger
- Abstract要約: 我々は、分解帰納的手続き学習(DIPL)の理論を定式化する。
DIPLは、教育的に関係のあるタスクを学習するエージェントを構築するために、様々な形の帰納的シンボリックラーニングがどのように使用できるかを概説している。
人間の学習能力を示すエージェントをDIPLで作成できることを実証する。
- 参考スコア(独自算出の注目度): 2.421459418045937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in machine learning have made it possible to train
artificially intelligent agents that perform with super-human accuracy on a
great diversity of complex tasks. However, the process of training these
capabilities often necessitates millions of annotated examples -- far more than
humans typically need in order to achieve a passing level of mastery on similar
tasks. Thus, while contemporary methods in machine learning can produce agents
that exhibit super-human performance, their rate of learning per opportunity in
many domains is decidedly lower than human-learning. In this work we formalize
a theory of Decomposed Inductive Procedure Learning (DIPL) that outlines how
different forms of inductive symbolic learning can be used in combination to
build agents that learn educationally relevant tasks such as mathematical, and
scientific procedures, at a rate similar to human learners. We motivate the
construction of this theory along Marr's concepts of the computational,
algorithmic, and implementation levels of cognitive modeling, and outline at
the computational-level six learning capacities that must be achieved to
accurately model human learning. We demonstrate that agents built along the
DIPL theory are amenable to satisfying these capacities, and demonstrate, both
empirically and theoretically, that DIPL enables the creation of agents that
exhibit human-like learning performance.
- Abstract(参考訳): 機械学習の最近の進歩により、複雑なタスクの多様さにおいて超人的精度で実行する、人工知能エージェントの訓練が可能になった。
しかしながら、これらの能力のトレーニングのプロセスには、数百万の注釈付き例が必要になることが少なくありません。
したがって、機械学習における現代的手法は、超人的性能を示すエージェントを生成できるが、多くの領域において機会当たりの学習率は、人間の学習よりも明らかに低い。
本研究では, 異なる形態の帰納的シンボリック・ラーニングを組み合わせることで, 数学的, 科学的手続きなどの教育的に関連するタスクを, 人間の学習者と同様の速度で学習できるエージェントを構築する方法を概説する, 分解的帰納的手順学習(dipl)の理論を定式化する。
認知モデリングの計算、アルゴリズム、実装レベルの概念に沿って、この理論の構築を動機付け、人間の学習を正確にモデル化するために達成しなければならない計算レベルの6つの学習能力について概説する。
本稿は,DIPL理論に沿って構築されたエージェントが,これらの能力を満たすことができることを実証し,実験的および理論的に,DIPLが人間に似た学習能力を示すエージェントの作成を可能にすることを実証する。
関連論文リスト
- Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - Reconciling Different Theories of Learning with an Agent-based Model of Procedural Learning [0.27624021966289597]
我々は、手続き的知識を学習するためのICAP、知識学習指導、認知的負荷理論フレームワークを再構築する、手続き的ABICAPという新しい人間の学習の計算モデルを提案する。
ICAPは、建設的学習は一般的により良い学習結果をもたらすと仮定するが、KLIやCLTのような理論は、これは必ずしも真実ではないと主張している。
論文 参考訳(メタデータ) (2024-08-23T20:45:14Z) - Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation [5.730580726163518]
大規模言語モデル(LLM)は、数学、法学、コーディング、常識、世界知識といった分野において、人間に匹敵する優れた能力を示してきた。
本稿では,生成エージェントによるシミュレーション技術を活用した新たな推論フレームワークであるMosaic Expert Observation Wall' (MEOW)を提案する。
論文 参考訳(メタデータ) (2024-03-27T03:33:32Z) - The Role of Higher-Order Cognitive Models in Active Learning [8.847360368647752]
我々は、人間のフィードバックのためのアクティブな学習のための新しいパラダイムを提唱する。
エージェントのレベルが上がると、アクティブな学習システムと教師との合理的コミュニケーションの質的に異なる形態がもたらされるかについて議論する。
論文 参考訳(メタデータ) (2024-01-09T07:39:36Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - NeuroCERIL: Robotic Imitation Learning via Hierarchical Cause-Effect
Reasoning in Programmable Attractor Neural Networks [2.0646127669654826]
本稿では,脳にインスパイアされた神経認知アーキテクチャであるNeuroCERILについて紹介する。
シミュレーションされたロボット模倣学習領域において,NeuroCERILは様々な手続き的スキルを習得できることを示す。
我々は、NeuroCERILは人間のような模倣学習の実行可能な神経モデルであると結論付けた。
論文 参考訳(メタデータ) (2022-11-11T19:56:11Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。