論文の概要: Optimizing piano practice with a utility-based scaffold
- arxiv url: http://arxiv.org/abs/2106.12937v1
- Date: Mon, 21 Jun 2021 14:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 14:59:47.732143
- Title: Optimizing piano practice with a utility-based scaffold
- Title(参考訳): ユーティリティ型足場によるピアノ練習の最適化
- Authors: Alexandra Moringen, S\"oren R\"uttgers, Luisa Zintgraf, Jason
Friedman, Helge Ritter
- Abstract要約: ピアノを弾くための学習の典型的な部分は、スキルの個々の次元に焦点を当てた一連の練習ユニットによる進歩である。
私たちはそれぞれ異なる学習をしており、ピアノの練習タスクやメソッドには選択肢がたくさんあるので、練習タスクのセットは人間の学習者に動的に適応すべきである。
本稿では,人間の学習者を学習プロセスを通じて指導する上で,最も期待されている実用性を持つ実践モードを選択することによって,学習者の指導を行うためのモデリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 59.821144959060305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A typical part of learning to play the piano is the progression through a
series of practice units that focus on individual dimensions of the skill, such
as hand coordination, correct posture, or correct timing. Ideally, a focus on a
particular practice method should be made in a way to maximize the learner's
progress in learning to play the piano. Because we each learn differently, and
because there are many choices for possible piano practice tasks and methods,
the set of practice tasks should be dynamically adapted to the human learner.
However, having a human teacher guide individual practice is not always
feasible since it is time consuming, expensive, and not always available.
Instead, we suggest to optimize in the space of practice methods, the so-called
practice modes. The proposed optimization process takes into account the skills
of the individual learner and their history of learning. In this work we
present a modeling framework to guide the human learner through the learning
process by choosing practice modes that have the highest expected utility
(i.e., improvement in piano playing skill). To this end, we propose a human
learner utility model based on a Gaussian process, and exemplify the model
training and its application for practice scaffolding on an example of
simulated human learners.
- Abstract(参考訳): ピアノを弾くことを学ぶ典型的な部分は、手の調整、正しい姿勢、正しいタイミングといったスキルの個々の次元に焦点を当てた一連の練習単位の進行である。
理想的には、ピアノを弾くことを学ぶ学習者の進歩を最大化するために、特定の練習方法に焦点を当てるべきである。
私たちはそれぞれ異なる学習をしており、ピアノの練習タスクやメソッドには選択肢がたくさんあるので、練習タスクのセットは人間の学習者に動的に適応すべきである。
しかし、人間教師が個々の実践を指導することは、時間がかかり、費用がかかり、常に利用できるとは限らないため、必ずしも実現可能であるとは限らない。
代わりに、いわゆるプラクティスモードであるプラクティスメソッドの領域で最適化することを提案します。
提案した最適化プロセスは,学習者のスキルと学習履歴を考慮に入れたものである。
本稿では、最も期待できる実用性(すなわちピアノ演奏スキルの向上)を持つ練習モードを選択することにより、学習プロセスを通じて学習者を導くためのモデリングフレームワークを提案する。
そこで本研究では,ガウス過程に基づく人間学習者実用モデルを提案し,シミュレーション学習者の実例としてモデル学習とその実践足場への適用例を示す。
関連論文リスト
- Generating Piano Practice Policy with a Gaussian Process [42.41481706562645]
本稿では,政策モデルが生み出す実践モードを選択することにより,学習プロセスを通じて学習者の指導を行うためのモデリングフレームワークを提案する。
提案したポリシーモデルは,実践セッション中に専門家と研究者のインタラクションを近似するために訓練される。
論文 参考訳(メタデータ) (2024-06-07T10:27:07Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - How To Guide Your Learner: Imitation Learning with Active Adaptive
Expert Involvement [20.91491585498749]
本稿では,教師と学生のインタラクションモデルに基づく,新しいアクティブな模倣学習フレームワークを提案する。
本稿では,AdapMenによるエラー境界の改善と,軽度条件下での複合的エラーの回避について述べる。
論文 参考訳(メタデータ) (2023-03-03T16:44:33Z) - Skill-based Model-based Reinforcement Learning [18.758245582997656]
モデルベース強化学習(RL)は、複雑な振る舞いを学習するサンプル効率のよい方法である。
本稿では,スキル領域における計画を可能にするSkill-based Model-based RL framework(SkiMo)を提案する。
学習したスキルダイナミクスモデルを利用して、スキル空間の長い地平線を正確にシミュレートし、計画する。
論文 参考訳(メタデータ) (2022-07-15T16:06:33Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Continual Predictive Learning from Videos [100.27176974654559]
本稿では,ビデオ予測の文脈において,新たな連続学習問題について検討する。
本稿では,連続予測学習(Continuousal predictive Learning, CPL)アプローチを提案する。
我々はRoboNetとKTHに基づく2つの新しいベンチマークを構築し、異なるタスクが異なる物理ロボット環境や人間の行動に対応するようにした。
論文 参考訳(メタデータ) (2022-04-12T08:32:26Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - Accelerating Reinforcement Learning for Reaching using Continuous
Curriculum Learning [6.703429330486276]
我々は、強化学習(RL)訓練の加速と、多目標到達タスクの性能向上に重点を置いている。
具体的には、トレーニングプロセス中に要件を徐々に調整する精度ベースの継続的カリキュラム学習(PCCL)手法を提案する。
このアプローチは、シミュレーションと実世界のマルチゴールリーチ実験の両方において、ユニバーサルロボット5eを用いてテストされる。
論文 参考訳(メタデータ) (2020-02-07T10:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。