論文の概要: A Framework to Counteract Suboptimal User-Behaviors in Exploratory
Learning Environments: an Application to MOOCs
- arxiv url: http://arxiv.org/abs/2106.07555v1
- Date: Mon, 14 Jun 2021 16:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:07:38.539064
- Title: A Framework to Counteract Suboptimal User-Behaviors in Exploratory
Learning Environments: an Application to MOOCs
- Title(参考訳): 探索的学習環境における準最適ユーザ行動に対抗する枠組み:MOOCへの適用
- Authors: S\'ebastien Lall\'e and Cristina Conati
- Abstract要約: ログ化されたインタラクションデータを使用して、どの行動パターンやアクティビティパターンをトリガーするかを学習する、データ駆動型ユーザモデリングフレームワークに重点を置いています。
本稿では,このフレームワークを探索環境の一形態であるMOOC(Massive Open Online Courses)に適用する。
- 参考スコア(独自算出の注目度): 1.1421942894219896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there is evidence that user-adaptive support can greatly enhance the
effectiveness of educational systems, designing such support for exploratory
learning environments (e.g., simulations) is still challenging due to the
open-ended nature of their interaction. In particular, there is little a priori
knowledge of which student's behaviors can be detrimental to learning in such
environments. To address this problem, we focus on a data-driven user-modeling
framework that uses logged interaction data to learn which behavioral or
activity patterns should trigger help during interaction with a specific
learning environment. This framework has been successfully used to provide
adaptive support in interactive learning simulations. Here we present a novel
application of this framework we are working on, namely to Massive Open Online
Courses (MOOCs), a form of exploratory environment that could greatly benefit
from adaptive support due to the large diversity of their users, but typically
lack of such adaptation. We describe an experiment aimed at investigating the
value of our framework to identify student's behaviors that can justify
adapting to, and report some preliminary results.
- Abstract(参考訳): ユーザ適応型サポートが教育システムの有効性を大幅に向上できるという証拠はあるが、そのような探索的学習環境(シミュレーションなど)へのサポートの設計は、インタラクションの開放的な性質から依然として困難である。
特に,このような環境下での学習には,学生の行動が有害な先入観がほとんどない。
この問題に対処するために、ログ化されたインタラクションデータを使用して、特定の学習環境とのインタラクション中にどの行動パターンやアクティビティパターンをトリガーすべきかを学習するデータ駆動型ユーザモデリングフレームワークに焦点を当てる。
このフレームワークはインタラクティブな学習シミュレーションにおいて適応的なサポートを提供するのに成功している。
本稿では,このフレームワークの新たな応用について紹介する。例えばmoocs(massive open online courses)とは,利用者の多様性が大きいが,その適応性に乏しい,適応型サポートのメリットを享受できる探索型環境の形式である。
本研究は,適応を正当化し,予備的な結果を報告できる学生の行動を特定するための枠組みの価値調査を目的とした実験である。
関連論文リスト
- Learning from Interaction: User Interface Adaptation using Reinforcement
Learning [0.0]
この論文では、生理的データを用いたRLベースのUI適応フレームワークを提案する。
このフレームワークは、ユーザインタラクションから学び、ユーザエクスペリエンス(UX)を改善するための情報適応を実現することを目的としている。
論文 参考訳(メタデータ) (2023-12-12T12:29:18Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [61.14928315004026]
オフ・ポリティクス強化学習は、インタラクティブな模倣学習よりも近いが、潜在的にさらに実践的な仮定の下で、パフォーマンスを向上させることができる。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Reinforcement Learning in Education: A Multi-Armed Bandit Approach [12.358921226358133]
強化傾きは、エージェントが状態-作用-逆ループを通過し、エージェントに対する全体的な報酬を最大化する、教師なしの問題を解決する。
本研究の目的は,教育場面における介入勧告問題に対する環境内の累積報酬の文脈化とシミュレートである。
論文 参考訳(メタデータ) (2022-11-01T22:47:17Z) - Environment Design for Inverse Reinforcement Learning [3.373280468092944]
専門家によるデモンストレーションから報酬関数を学習するタスクは、与えられた環境でのデモンストレーションから何が学べるかに固有の制限だけでなく、高いサンプルの複雑さに悩まされる。
我々は,学習者と専門家が繰り返し対話する環境設計プロセスの枠組みを定式化し,その課題を実証するための環境を慎重にキュレートし,報酬に関する情報を積極的に求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2022-10-26T18:31:17Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Causal Reinforcement Learning using Observational and Interventional
Data [14.856472820492364]
環境の因果モデルを効率的に学習することは、PMDPで動作するモデルRLエージェントの重要な課題である。
学習エージェントが環境と直接対話することでオンライン体験を収集できるシナリオを考察する。
オンラインとオフラインのエクスペリエンスは、因果モデルを学ぶために安全に組み合わせられるか?
論文 参考訳(メタデータ) (2021-06-28T06:58:20Z) - A Unified Cognitive Learning Framework for Adapting to Dynamic
Environment and Tasks [19.459770316922437]
動的無線環境とタスクのための統合認知学習(CL)フレームワークを提案する。
提案するCLフレームワークには,動的な環境やタスクに適応する能力,自己学習能力,そして,変調認識を例に挙げて,「悪いお金を追い出す良い金」の能力という,3つの利点があることが示されている。
論文 参考訳(メタデータ) (2021-06-01T14:08:20Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Adapting User Interfaces with Model-based Reinforcement Learning [47.469980921522115]
インターフェースへの適応には、変更がユーザに与えるポジティブな効果とネガティブな効果の両方を考慮する必要があります。
保守的な適応政策をもたらす適応的ユーザインターフェースの新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-11T17:24:34Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。