論文の概要: A Framework to Counteract Suboptimal User-Behaviors in Exploratory
Learning Environments: an Application to MOOCs
- arxiv url: http://arxiv.org/abs/2106.07555v1
- Date: Mon, 14 Jun 2021 16:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:07:38.539064
- Title: A Framework to Counteract Suboptimal User-Behaviors in Exploratory
Learning Environments: an Application to MOOCs
- Title(参考訳): 探索的学習環境における準最適ユーザ行動に対抗する枠組み:MOOCへの適用
- Authors: S\'ebastien Lall\'e and Cristina Conati
- Abstract要約: ログ化されたインタラクションデータを使用して、どの行動パターンやアクティビティパターンをトリガーするかを学習する、データ駆動型ユーザモデリングフレームワークに重点を置いています。
本稿では,このフレームワークを探索環境の一形態であるMOOC(Massive Open Online Courses)に適用する。
- 参考スコア(独自算出の注目度): 1.1421942894219896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there is evidence that user-adaptive support can greatly enhance the
effectiveness of educational systems, designing such support for exploratory
learning environments (e.g., simulations) is still challenging due to the
open-ended nature of their interaction. In particular, there is little a priori
knowledge of which student's behaviors can be detrimental to learning in such
environments. To address this problem, we focus on a data-driven user-modeling
framework that uses logged interaction data to learn which behavioral or
activity patterns should trigger help during interaction with a specific
learning environment. This framework has been successfully used to provide
adaptive support in interactive learning simulations. Here we present a novel
application of this framework we are working on, namely to Massive Open Online
Courses (MOOCs), a form of exploratory environment that could greatly benefit
from adaptive support due to the large diversity of their users, but typically
lack of such adaptation. We describe an experiment aimed at investigating the
value of our framework to identify student's behaviors that can justify
adapting to, and report some preliminary results.
- Abstract(参考訳): ユーザ適応型サポートが教育システムの有効性を大幅に向上できるという証拠はあるが、そのような探索的学習環境(シミュレーションなど)へのサポートの設計は、インタラクションの開放的な性質から依然として困難である。
特に,このような環境下での学習には,学生の行動が有害な先入観がほとんどない。
この問題に対処するために、ログ化されたインタラクションデータを使用して、特定の学習環境とのインタラクション中にどの行動パターンやアクティビティパターンをトリガーすべきかを学習するデータ駆動型ユーザモデリングフレームワークに焦点を当てる。
このフレームワークはインタラクティブな学習シミュレーションにおいて適応的なサポートを提供するのに成功している。
本稿では,このフレームワークの新たな応用について紹介する。例えばmoocs(massive open online courses)とは,利用者の多様性が大きいが,その適応性に乏しい,適応型サポートのメリットを享受できる探索型環境の形式である。
本研究は,適応を正当化し,予備的な結果を報告できる学生の行動を特定するための枠組みの価値調査を目的とした実験である。
関連論文リスト
- Demonstrating the Continual Learning Capabilities and Practical Application of Discrete-Time Active Inference [0.0]
アクティブ推論は、エージェントが環境とどのように相互作用するかを理解するための数学的フレームワークである。
本稿では,個別の時間環境で動作するエージェントのための連続学習フレームワークを提案する。
我々は、エージェントがモデルを再学習し、効率的に洗練する能力を示し、金融や医療といった複雑な分野に適合する。
論文 参考訳(メタデータ) (2024-09-30T21:18:46Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Learning from Interaction: User Interface Adaptation using Reinforcement
Learning [0.0]
この論文では、生理的データを用いたRLベースのUI適応フレームワークを提案する。
このフレームワークは、ユーザインタラクションから学び、ユーザエクスペリエンス(UX)を改善するための情報適応を実現することを目的としている。
論文 参考訳(メタデータ) (2023-12-12T12:29:18Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Reinforcement Learning in Education: A Multi-Armed Bandit Approach [12.358921226358133]
強化傾きは、エージェントが状態-作用-逆ループを通過し、エージェントに対する全体的な報酬を最大化する、教師なしの問題を解決する。
本研究の目的は,教育場面における介入勧告問題に対する環境内の累積報酬の文脈化とシミュレートである。
論文 参考訳(メタデータ) (2022-11-01T22:47:17Z) - Environment Design for Inverse Reinforcement Learning [3.085995273374333]
一つの環境から学ぶことに集中する現在の逆強化学習法は、環境力学のわずかな変化に対処できない可能性がある。
本フレームワークでは,学習者がエキスパートと繰り返し対話し,前者の選択環境を使って報酬関数を識別する。
その結果,サンプル効率とロバスト性の両方の改善が得られた。
論文 参考訳(メタデータ) (2022-10-26T18:31:17Z) - Learning Self-Modulating Attention in Continuous Time Space with
Applications to Sequential Recommendation [102.24108167002252]
本稿では,複雑で非線形に進化する動的ユーザの嗜好をモデル化する,自己変調型注意ネットワークを提案する。
提案手法がトップNシーケンシャルなレコメンデーションタスクに与える影響を実証的に示すとともに,3つの大規模実世界のデータセットによる結果から,我々のモデルが最先端のパフォーマンスを達成できることを示す。
論文 参考訳(メタデータ) (2022-03-30T03:54:11Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A Unified Cognitive Learning Framework for Adapting to Dynamic
Environment and Tasks [19.459770316922437]
動的無線環境とタスクのための統合認知学習(CL)フレームワークを提案する。
提案するCLフレームワークには,動的な環境やタスクに適応する能力,自己学習能力,そして,変調認識を例に挙げて,「悪いお金を追い出す良い金」の能力という,3つの利点があることが示されている。
論文 参考訳(メタデータ) (2021-06-01T14:08:20Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。