論文の概要: Is Log-Traced Engagement Enough? Extending Reading Analytics With Trait-Level Flow and Reading Strategy Metrics
- arxiv url: http://arxiv.org/abs/2602.19616v1
- Date: Mon, 23 Feb 2026 09:03:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.740871
- Title: Is Log-Traced Engagement Enough? Extending Reading Analytics With Trait-Level Flow and Reading Strategy Metrics
- Title(参考訳): ログトレースのエンゲージメントは十分か? トラフィックレベルフローと読み取り戦略メトリクスで読み取り分析を拡張する
- Authors: Erwin Lopez, Atsushi Shimada,
- Abstract要約: 本研究では,DEC(Deep Effortless concentration)を経験する傾向として,特性レベルフローがどのように運用されているかを検討する。
読書戦略のトレースは、学習結果を説明する際に伝統的なエンゲージメント指標を拡張することができる。
これらの結果は、より公平でパーソナライズされた介入を支援するために、読解ログの分析は1段階の解釈を超えるべきであることを示唆している。
- 参考スコア(独自算出の注目度): 0.2864713389096699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Student engagement is a central construct in Learning Analytics, yet it is often operationalized through persistence indicators derived from logs, overlooking affective-cognitive states. Focusing on the analysis of reading logs, this study examines how trait-level flow - operationalized as the tendency to experience Deep Effortless Concentration (DEC) - and traces of reading strategies derived from e-book interaction data can extend traditional engagement indicators in explaining learning outcomes. We collected data from 100 students across two engineering courses, combining questionnaire measures of DEC with fine-grained reading logs. Correlation and regression analyses show that (1) DEC and traces of reading strategies explain substantial additional variance in grades beyond log-traced engagement (ΔR2 = 21.3% over the baseline 25.5%), and (2) DEC moderates the relationship between reading behaviors and outcomes, indicating trait-sensitive differences in how log-derived indicators translate into performance. These findings suggest that, to support more equitable and personalized interventions, the analysis of reading logs should move beyond a one-size-fits-all interpretation and integrate personal traits with metrics that include behavioral and strategic measures of reading.
- Abstract(参考訳): 学生のエンゲージメントは、学習分析における中心的な構成要素であるが、しばしば、感情的認知状態を見渡すために、ログから派生した永続性インジケータを通して運用される。
本研究は,読解ログの分析に焦点をあて,Deep Effortless concentration (DEC)を経験する傾向として操作された特性レベルフローと,電子書籍のインタラクションデータから導かれる読解戦略の痕跡が,学習結果を説明する上で,従来のエンゲージメント指標をいかに拡張するかを検討する。
筆者らは,DECの質問紙調査と詳細な読解記録を併用し,100名の学生から2つの工学コースのデータを収集した。
相関分析および回帰分析により,(1) ログトレーシングエンゲージメントを超える段階(ΔR2 = 21.3%)におけるDECおよび読み方戦略の痕跡は,基準値25.5%よりも大きく,(2) 読み方と結果の関係を緩やかにし,ログインジケータがパフォーマンスにどのように変換されるか,特性に敏感な差異を示した。
これらの結果は、より公平でパーソナライズされた介入を支援するために、読み取りログの分析は、一大の解釈を超えて、個人の特性と、行動的および戦略的な読解手段を含むメトリクスを統合するべきであることを示唆している。
関連論文リスト
- Fuzzy, Symbolic, and Contextual: Enhancing LLM Instruction via Cognitive Scaffolding [3.553493344868413]
本研究では,指導対話における大規模言語モデル(LLM)の認知行動に,素早いレベルの帰納的バイアスがどう影響するかを検討する。
本稿では,適応的,構造化された推論を促進するために,短期記憶スキーマと組み合わせたシンボリックスキャフォールディング手法を提案する。
予備的な結果は、我々の完全なシステムがベースラインの変種を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-08-28T20:46:13Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Illusion or Algorithm? Investigating Memorization, Emergence, and Symbolic Processing in In-Context Learning [50.53703102032562]
大規模トランスフォーマー言語モデル(LM)は、Webスケールデータによる次世代の予測のみを訓練することで、幅広いタスクを解決できる。
この能力の背後にあるメカニズムは、ICL(In-context Learning)と呼ばれ、議論の余地があり、理解が不十分なままである。
論文 参考訳(メタデータ) (2025-05-16T08:50:42Z) - Semantic Consistency Regularization with Large Language Models for Semi-supervised Sentiment Analysis [20.503153899462323]
本稿では,半教師付き感情分析のためのフレームワークを提案する。
テキストを意味的に拡張する2つのプロンプト戦略を導入する。
実験により,従来の半教師付き手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2025-01-29T12:03:11Z) - Towards Brain Passage Retrieval -- An Investigation of EEG Query Representations [6.084958172018792]
情報検索システムは、ユーザーの内部情報要求を(テキスト)クエリに変換する能力に依存している。
脳信号から明示的なテキストクエリをデコードしようとする現在のアプローチでは、効果が限られている。
本稿では,中間クエリ変換を必要としない新しいフレームワークであるBPR(Brain Passage Retrieval)を提案する。
論文 参考訳(メタデータ) (2024-12-09T17:41:25Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [51.26815896167173]
本稿では,3つの相補的な側面からPAMIレビューを総合的に分析する。
我々の分析は、現在のレビューの実践において、独特の組織パターンと永続的なギャップを明らかにします。
最後に、最先端のAI生成レビューの評価は、コヒーレンスと組織の進歩を奨励していることを示している。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Decoding In-Context Learning: Neuroscience-inspired Analysis of
Representations in Large Language Models [5.062236259068678]
In-context Learning (ICL) による大規模言語モデル(LLM)の性能向上について検討する。
本稿では,Llama-270BとVicuna 13Bのパラメータ化探索と,関連する情報と無関係情報に対する注意度の測定方法を提案する。
ICL後の行動改善とLLM層間の埋め込みと注意重みの変化との間に有意な相関が認められた。
論文 参考訳(メタデータ) (2023-09-30T09:01:35Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。