論文の概要: Designing Theory-Driven Analytics-Enhanced Self-Regulated Learning
Applications
- arxiv url: http://arxiv.org/abs/2303.12388v1
- Date: Wed, 22 Mar 2023 08:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 14:42:05.073357
- Title: Designing Theory-Driven Analytics-Enhanced Self-Regulated Learning
Applications
- Title(参考訳): 理論駆動分析による自己統制型学習アプリケーションの設計
- Authors: Mohamed Amine Chatti, Volkan Y\"ucepur, Arham Muslim, Mouadh Guesmi,
Shoeb Joarder
- Abstract要約: 自己統制学習(SRL)を促進するための学習分析(LA)の適用への関心が高まっている。
この章では、LA強化SRLアプリケーションの設計の理論的基盤を探究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There is an increased interest in the application of learning analytics (LA)
to promote self-regulated learning (SRL). A variety of LA dashboards and
indicators were proposed to support different crucial SRL processes, such as
planning, awareness, self-reflection, self-monitoring, and feedback. However,
the design of these dashboards and indicators is often without reference to
theories in learning science, human-computer interaction (HCI), and information
visualization (InfoVis). Moreover, there is a lack of theoretically sound
frameworks to guide the systematic design and development of LA dashboards and
indicators to scaffold SRL. This chapter seeks to explore theoretical
underpinnings of the design of LA-enhanced SRL applications, drawing from the
fields of learning science, HCI, and InfoVis. We first present the
Student-Centered Learning Analytics-enhanced Self-Regulated Learning (SCLA-SRL)
methodology for building theory-driven LA-enhanced SRL applications for and
with learners. We then put this methodology into practice by designing and
developing LA indicators to support novice programmers' SRL in a higher
education context.
- Abstract(参考訳): 自己統制学習(SRL)を促進するための学習分析(LA)の適用に対する関心が高まっている。
計画、認識、自己回帰、自己監視、フィードバックなど、さまざまな重要なSRLプロセスをサポートするために、LAのダッシュボードとインジケータが提案された。
しかしながら、これらのダッシュボードとインジケータの設計は、科学、ヒューマンコンピュータインタラクション(HCI)、情報可視化(InfoVis)の理論に言及しないことが多い。
さらに、LAダッシュボードと指標を足場SRLに体系的に設計・開発するための理論的に健全なフレームワークが欠如している。
本章は,la-enhanced srlアプリケーションの設計の理論的基礎を探究し,学習科学,hci,インフォビスの分野から考察する。
まず,学習者を対象とした理論駆動型SRLアプリケーション構築のためのSCLA-SRL方法論について述べる。
そこで我々は、初心者プログラマのSRLを高等教育の文脈で支援するLA指標を設計・開発することで、この方法論を実践した。
関連論文リスト
- An Introduction to Reinforcement Learning: Fundamental Concepts and Practical Applications [3.1699526199304007]
強化学習(Reinforcement Learning, RL)は、人工知能(AI)の一分野であり、累積報酬を最大化するために環境と対話して意思決定を行うための訓練エージェントに焦点を当てている。
本稿では,その中核となる概念,方法論,最近の傾向,学習資源について概説する。
論文 参考訳(メタデータ) (2024-08-13T23:08:06Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Survey on Large Language Model-Enhanced Reinforcement Learning: Concept, Taxonomy, and Methods [18.771658054884693]
大規模言語モデル(LLM)は、マルチタスク学習、サンプル効率、高レベルのタスク計画といった側面において強化学習(RL)を強化するための有望な道として出現する。
本稿では,情報処理装置,報酬設計装置,意思決定装置,ジェネレータの4つの役割を含む,RLにおけるLLMの機能を体系的に分類する構造的分類法を提案する。
論文 参考訳(メタデータ) (2024-03-30T08:28:08Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Using Think-Aloud Data to Understand Relations between Self-Regulation
Cycle Characteristics and Student Performance in Intelligent Tutoring Systems [15.239133633467672]
本研究では,学習者のモーメント・バイ・モーメントのパフォーマンスとSRLの挙動について検討する。
本稿では,AI生成した思考情報に基づくSRL行動のラベル付けの実現可能性を示す。
SRLサイクルの進行過程における学生の行動は、後のSRLサイクルの段階よりも、問題解決時のモーメント・バイ・モーメントの正しさが低かった。
論文 参考訳(メタデータ) (2023-12-09T20:36:58Z) - RLLTE: Long-Term Evolution Project of Reinforcement Learning [48.181733263496746]
本稿では,RLLTEについて紹介する。RLLTEは長期的進化であり,高度にモジュール化された,強化学習研究と応用のためのオープンソースフレームワークである。
トップノーチアルゴリズムの実装を提供するだけでなく、RLLTEはアルゴリズム開発のためのツールキットとしても機能する。
RLLTEは、RLエンジニアリングの基準を設定し、産業や学界に高い刺激を与えると期待されている。
論文 参考訳(メタデータ) (2023-09-28T12:30:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Designing Reinforcement Learning Algorithms for Digital Interventions:
Pre-implementation Guidelines [24.283342018185028]
オンライン強化学習アルゴリズムは、モバイル健康とオンライン教育の分野におけるデジタル介入のパーソナライズにますます利用されている。
これらの設定でRLアルゴリズムを設計およびテストする際の一般的な課題は、RLアルゴリズムがリアルタイム制約下で安定して学習および実行できることである。
私たちは、機械学習のベストプラクティスと教師あり学習の統計を取り入れたデータサイエンスフレームワークであるPCS(Predictability, Computability, Stability)フレームワークを拡張します。
論文 参考訳(メタデータ) (2022-06-08T15:05:28Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - Towards Continual Reinforcement Learning: A Review and Perspectives [69.48324517535549]
我々は,連続的強化学習(RL)に対する異なる定式化とアプローチの文献レビューの提供を目的とする。
まだ初期段階だが、継続的なrlの研究は、よりインクリメンタルな強化学習者を開発することを約束している。
これには、医療、教育、物流、ロボット工学などの分野の応用が含まれる。
論文 参考訳(メタデータ) (2020-12-25T02:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。