論文の概要: Beyond Self-Regulated Learning Processes: Unveiling Hidden Tactics in Generative AI-Assisted Writing
- arxiv url: http://arxiv.org/abs/2508.10310v1
- Date: Thu, 14 Aug 2025 03:28:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.170518
- Title: Beyond Self-Regulated Learning Processes: Unveiling Hidden Tactics in Generative AI-Assisted Writing
- Title(参考訳): 自己統制型学習プロセスを超えて - ジェネレーティブAI支援書記における隠れた戦術の展開
- Authors: Kaixun Yang, Yizhou Fan, Luzhen Tang, Mladen Raković, Xinyu Li, Dragan Gašević, Guanliang Chen,
- Abstract要約: ジェネレーティブAI(GenAI)の教育への統合は、学生の学習方法を変えつつある。
GenAIツールとの相互作用において,自己制御学習(SRL)がどのように展開するかを理解することが不可欠である。
- 参考スコア(独自算出の注目度): 6.959292553787328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Generative AI (GenAI) into education is reshaping how students learn, making self-regulated learning (SRL) - the ability to plan, monitor, and adapt one's learning - more important than ever. To support learners in these new contexts, it is essential to understand how SRL unfolds during interaction with GenAI tools. Learning analytics offers powerful techniques for analyzing digital trace data to infer SRL behaviors. However, existing approaches often assume SRL processes are linear, segmented, and non-overlapping-assumptions that overlook the dynamic, recursive, and non-linear nature of real-world learning. We address this by conceptualizing SRL as a layered system: observable learning patterns reflect hidden tactics (short, purposeful action states), which combine into broader SRL strategies. Using Hidden Markov Models (HMMs), we analyzed trace data from higher education students engaged in GenAI-assisted academic writing. We identified three distinct groups of learners, each characterized by different SRL strategies. These groups showed significant differences in performance, indicating that students' use of different SRL strategies in GenAI-assisted writing led to varying task outcomes. Our findings advance the methodological toolkit for modeling SRL and inform the design of adaptive learning technologies that more effectively support learners in GenAI-enhanced educational environments.
- Abstract(参考訳): ジェネレーティブAI(GenAI)の教育への統合は、学生の学習方法を変え、自己統制型学習(SRL) - 自分の学習を計画し、監視し、適応する能力 - をこれまで以上に重要視している。
これらの新しい文脈で学習者を支援するためには、SRLがGenAIツールとのインタラクション中にどのように広がるかを理解することが不可欠である。
学習分析は、SRLの振る舞いを推測するためにデジタルトレースデータを分析するための強力な技術を提供する。
しかし、既存のアプローチでは、SRLプロセスは実世界の学習の動的、再帰的、非線形の性質を無視する線形、セグメント化され、重複しない仮定であると仮定することが多い。
観測可能な学習パターンは、より広範なSRL戦略と組み合わせた隠れた戦術(短所、目的的行動状態)を反映する。
隠れマルコフモデル (HMM) を用いて,GenAIを活用した学術文献作成に携わる高校生の痕跡データを分析した。
学習者の3つの異なるグループを同定し,それぞれ異なるSRL戦略を特徴とした。
これらの群は, 成績に有意な差を示し, GenAI支援書記におけるSRL戦略の異なる利用が, 作業結果の相違につながった。
本研究は, SRLモデリングのための方法論ツールキットを推進し, 学習者を支援する適応学習技術の設計について報告する。
関連論文リスト
- Scaling DRL for Decision Making: A Survey on Data, Network, and Training Budget Strategies [66.83950068218033]
スケーリング法則は、モデルのパラメータとトレーニングデータによって学習のパフォーマンスが向上することを示している。
性能向上の可能性にもかかわらず、スケーリング法則を深層強化学習に統合することは、完全には実現されていない。
本稿では,データ,ネットワーク,トレーニング予算という3次元のスケーリング戦略を体系的に分析することによって,このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-05T08:03:12Z) - FLoRA: An Advanced AI-Powered Engine to Facilitate Hybrid Human-AI Regulated Learning [6.965423433136556]
本稿では、高度な生成人工知能(GenAI)機能と最先端の学習分析を組み込んだFLoRAエンジンについて紹介する。
FLoRA Engineは、協調書き込みやマルチエージェントチャットボット、詳細な学習トレースログといったインスツルメンテーションツールを提供し、動的で適応的な足場をリアルタイムでサポートしている。
論文 参考訳(メタデータ) (2025-07-10T01:11:52Z) - Toward Cyclic A.I. Modelling of Self-Regulated Learning: A Case Study with E-Learning Trace Data [0.45060992929802207]
学生のSRL活動のモデル化を進めるために,SRLインフォームド・フィーチャをトレースデータに適用する。
これらの特徴により予測精度が向上し,SRLの循環モデリング技術に関するさらなる研究の価値が検証された。
論文 参考訳(メタデータ) (2025-06-25T04:47:53Z) - Synergizing Self-Regulation and Artificial-Intelligence Literacy Towards Future Human-AI Integrative Learning [92.34299949916134]
自己制御学習(SRL)と人工知能(AI)リテラシーは、人間とAIの対話学習を成功させる上で重要な能力となっている。
本研究では,4つの学習グループを明らかにするクラスタリング手法を用いて,1,704人の中国人大学生のデータを分析した。
論文 参考訳(メタデータ) (2025-03-31T13:41:21Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Disentangled Representation Learning [46.51815065323667]
Disentangled Representation Learning (DRL) は、観測可能なデータに隠された基礎的要因を表現形式で識別し、切り離すことができるモデルを学習することを目的としている。
我々は、モチベーション、定義、方法論、評価、応用、モデル設計を含む様々な側面からDRLを包括的に調査する。
論文 参考訳(メタデータ) (2022-11-21T18:14:38Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - POAR: Efficient Policy Optimization via Online Abstract State
Representation Learning [6.171331561029968]
状態表現学習(SRL)は,複雑な感覚データからタスク関連特徴を低次元状態に符号化する。
我々は、SRLの解釈を改善するために、専門家のデモンストレーションを活用するために、ドメイン類似と呼ばれる新しいSRLを導入する。
我々はPOARを実証的に検証し、高次元のタスクを効率的に処理し、スクラッチから直接実生活ロボットの訓練を容易にする。
論文 参考訳(メタデータ) (2021-09-17T16:52:03Z) - MOLAM: A Mobile Multimodal Learning Analytics Conceptual Framework to
Support Student Self-Regulated Learning [0.0]
この章では、MOLAM(Mobile Multimodal Learning Analytics)アプローチを紹介します。
学生の自己統制型学習の発展は、このアプローチの採用の恩恵を受けるだろうと私は主張する。
論文 参考訳(メタデータ) (2020-12-18T18:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。