論文の概要: Decomposed Inductive Procedure Learning
- arxiv url: http://arxiv.org/abs/2110.13233v1
- Date: Mon, 25 Oct 2021 19:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 09:09:11.180096
- Title: Decomposed Inductive Procedure Learning
- Title(参考訳): 分解型インダクティブ・プロシージャ学習
- Authors: Daniel Weitekamp, Christopher MacLellan, Erik Harpstead, Kenneth
Koedinger
- Abstract要約: 我々は、分解帰納的手続き学習(DIPL)の理論を定式化する。
DIPLは、教育的に関係のあるタスクを学習するエージェントを構築するために、様々な形の帰納的シンボリックラーニングがどのように使用できるかを概説している。
人間の学習能力を示すエージェントをDIPLで作成できることを実証する。
- 参考スコア(独自算出の注目度): 2.421459418045937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in machine learning have made it possible to train
artificially intelligent agents that perform with super-human accuracy on a
great diversity of complex tasks. However, the process of training these
capabilities often necessitates millions of annotated examples -- far more than
humans typically need in order to achieve a passing level of mastery on similar
tasks. Thus, while contemporary methods in machine learning can produce agents
that exhibit super-human performance, their rate of learning per opportunity in
many domains is decidedly lower than human-learning. In this work we formalize
a theory of Decomposed Inductive Procedure Learning (DIPL) that outlines how
different forms of inductive symbolic learning can be used in combination to
build agents that learn educationally relevant tasks such as mathematical, and
scientific procedures, at a rate similar to human learners. We motivate the
construction of this theory along Marr's concepts of the computational,
algorithmic, and implementation levels of cognitive modeling, and outline at
the computational-level six learning capacities that must be achieved to
accurately model human learning. We demonstrate that agents built along the
DIPL theory are amenable to satisfying these capacities, and demonstrate, both
empirically and theoretically, that DIPL enables the creation of agents that
exhibit human-like learning performance.
- Abstract(参考訳): 機械学習の最近の進歩により、複雑なタスクの多様さにおいて超人的精度で実行する、人工知能エージェントの訓練が可能になった。
しかしながら、これらの能力のトレーニングのプロセスには、数百万の注釈付き例が必要になることが少なくありません。
したがって、機械学習における現代的手法は、超人的性能を示すエージェントを生成できるが、多くの領域において機会当たりの学習率は、人間の学習よりも明らかに低い。
本研究では, 異なる形態の帰納的シンボリック・ラーニングを組み合わせることで, 数学的, 科学的手続きなどの教育的に関連するタスクを, 人間の学習者と同様の速度で学習できるエージェントを構築する方法を概説する, 分解的帰納的手順学習(dipl)の理論を定式化する。
認知モデリングの計算、アルゴリズム、実装レベルの概念に沿って、この理論の構築を動機付け、人間の学習を正確にモデル化するために達成しなければならない計算レベルの6つの学習能力について概説する。
本稿は,DIPL理論に沿って構築されたエージェントが,これらの能力を満たすことができることを実証し,実験的および理論的に,DIPLが人間に似た学習能力を示すエージェントの作成を可能にすることを実証する。
関連論文リスト
- The Role of Higher-Order Cognitive Models in Active Learning [8.847360368647752]
我々は、人間のフィードバックのためのアクティブな学習のための新しいパラダイムを提唱する。
エージェントのレベルが上がると、アクティブな学習システムと教師との合理的コミュニケーションの質的に異なる形態がもたらされるかについて議論する。
論文 参考訳(メタデータ) (2024-01-09T07:39:36Z) - Resource-constrained knowledge diffusion processes inspired by human
peer learning [2.1963472367016426]
対話型人工学習者のネットワークにおける自然知識拡散過程について検討する。
このようなプロセスが実際にトレーニングリソースを効果的に活用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-12-01T15:39:24Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [61.14928315004026]
オフ・ポリティクス強化学習は、インタラクティブな模倣学習よりも近いが、潜在的にさらに実践的な仮定の下で、パフォーマンスを向上させることができる。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - NeuroCERIL: Robotic Imitation Learning via Hierarchical Cause-Effect
Reasoning in Programmable Attractor Neural Networks [2.0646127669654826]
本稿では,脳にインスパイアされた神経認知アーキテクチャであるNeuroCERILについて紹介する。
シミュレーションされたロボット模倣学習領域において,NeuroCERILは様々な手続き的スキルを習得できることを示す。
我々は、NeuroCERILは人間のような模倣学習の実行可能な神経モデルであると結論付けた。
論文 参考訳(メタデータ) (2022-11-11T19:56:11Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Leveraging Rationales to Improve Human Task Performance [15.785125079811902]
計算システムの性能が人間のユーザを上回ることを考えれば、人間のパフォーマンスを改善するために説明可能なAI能力を活用することができるだろうか?
本稿では,ユーティリティベースの計算手法の合理性を自動生成するRationale-Generating Algorithmを紹介する。
以上の結果から,本手法は人事性能の統計的改善につながる有理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2020-02-11T04:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。