論文の概要: ClickSight: Interpreting Student Clickstreams to Reveal Insights on Learning Strategies via LLMs
- arxiv url: http://arxiv.org/abs/2505.15410v1
- Date: Wed, 21 May 2025 11:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.606797
- Title: ClickSight: Interpreting Student Clickstreams to Reveal Insights on Learning Strategies via LLMs
- Title(参考訳): ClickSight: 学生のクリックストリームを解釈してLLMによる学習戦略の考察
- Authors: Bahar Radmehr, Ekaterina Shved, Fatma Betül Güreş, Adish Singla, Tanja Käser,
- Abstract要約: デジタル学習環境からのクリックストリームデータは、生徒の学習行動に関する貴重な洞察を提供するが、解釈することは困難である。
学生のクリックストリームを解釈して学習戦略を明らかにする,LLM(In-context Large Language Model)ベースのパイプラインであるClickSightを紹介した。
我々は,4つの異なるプロンプト戦略を評価し,自己抑制が解釈品質に与える影響について検討する。
- 参考スコア(独自算出の注目度): 19.256644848791503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clickstream data from digital learning environments offer valuable insights into students' learning behaviors, but are challenging to interpret due to their high dimensionality and granularity. Prior approaches have relied mainly on handcrafted features, expert labeling, clustering, or supervised models, therefore often lacking generalizability and scalability. In this work, we introduce ClickSight, an in-context Large Language Model (LLM)-based pipeline that interprets student clickstreams to reveal their learning strategies. ClickSight takes raw clickstreams and a list of learning strategies as input and generates textual interpretations of students' behaviors during interaction. We evaluate four different prompting strategies and investigate the impact of self-refinement on interpretation quality. Our evaluation spans two open-ended learning environments and uses a rubric-based domain-expert evaluation. Results show that while LLMs can reasonably interpret learning strategies from clickstreams, interpretation quality varies by prompting strategy, and self-refinement offers limited improvement. ClickSight demonstrates the potential of LLMs to generate theory-driven insights from educational interaction data.
- Abstract(参考訳): デジタル学習環境からのクリックストリームデータは、生徒の学習行動に関する貴重な洞察を提供するが、その高次元性と粒度のために解釈することは困難である。
それまでのアプローチは、主に手作りの機能、専門家のラベル付け、クラスタリング、あるいは教師付きモデルに依存していた。
本研究では,学生のクリックストリームを解釈して学習戦略を明らかにする,LLM(Large Language Model)ベースのパイプラインであるClickSightを紹介する。
ClickSightは、生クリックストリームと学習戦略のリストを入力として取り、相互作用中の生徒の行動のテキスト解釈を生成する。
我々は,4つの異なるプロンプト戦略を評価し,自己抑制が解釈品質に与える影響について検討する。
評価は2つのオープンエンド学習環境にまたがり,ルーリックベースのドメインエキスパート評価を用いる。
その結果、LLMはクリックストリームから学習戦略を合理的に解釈できるが、解釈品質は戦略の推進によって変化し、自己修正は限定的な改善をもたらすことがわかった。
ClickSightは、LLMが教育相互作用データから理論駆動的な洞察を生成する可能性を実証する。
関連論文リスト
- LecEval: An Automated Metric for Multimodal Knowledge Acquisition in Multimedia Learning [58.98865450345401]
本稿では,マイアーのマルチメディア学習認知理論に基礎を置く自動計量であるLecEvalを紹介する。
LecEvalは、コンテンツ関連(CR)、表現的明瞭度(EC)、論理構造(LS)、聴取エンゲージメント(AE)の4つのルーリックを用いて効果を評価する
私たちは、50以上のオンラインコースビデオから2000以上のスライドからなる大規模なデータセットをキュレートします。
論文 参考訳(メタデータ) (2025-05-04T12:06:47Z) - Can Large Language Models Match Tutoring System Adaptivity? A Benchmarking Study [0.0]
大規模言語モデル(LLM)は動的命令補助として約束を守る。
しかし、LLMが知的チューリングシステム(ITS)の適応性を再現できるかどうかは不明である。
論文 参考訳(メタデータ) (2025-04-07T23:57:32Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Can Large Language Models Understand Context? [17.196362853457412]
本稿では,生成モデルの評価に適合する既存のデータセットを適応させることにより,文脈理解ベンチマークを提案する。
実験結果から, 事前学習された高密度モデルでは, 最先端の微調整モデルと比較して, よりニュアンスな文脈特徴の理解に苦慮していることが明らかとなった。
LLM圧縮は研究と実世界のアプリケーションの両方において重要度が高くなっているため、文脈学習環境下での量子化モデルの文脈理解を評価する。
論文 参考訳(メタデータ) (2024-02-01T18:55:29Z) - Understanding Transferable Representation Learning and Zero-shot Transfer in CLIP [84.90129481336659]
CLIPの基盤となるトランスファーブル表現学習について検討し、異なるモダリティの特徴の整合性を実証する。
そこで本研究では,ベンチマークデータセット上でのCLIPや他の最先端手法よりも優れた性能を実現するCLIP型アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-02T06:41:30Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Enhancing Student Performance Prediction on Learnersourced Questions
with SGNN-LLM Synergy [11.735587384038753]
本稿では,SGNN(Signed Graph Neural Networks)とLLM(Large Language Model)を統合化するための革新的な戦略を提案する。
提案手法では, 学生の回答を包括的にモデル化するための署名付き二部グラフを用いて, 雑音耐性を高めるコントラスト学習フレームワークを補完する。
論文 参考訳(メタデータ) (2023-09-23T23:37:55Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Click-Based Student Performance Prediction: A Clustering Guided
Meta-Learning Approach [10.962724342736042]
クリックストリーム行動からオンライン授業における学生の知識獲得を予測する問題について検討する。
ビデオ内のクイズ性能を予測する手法は,開発する3つの重要なアイデアに基づいている。
論文 参考訳(メタデータ) (2021-10-28T14:03:29Z) - Analyzing Student Strategies In Blended Courses Using Clickstream Data [32.81171098036632]
パターンマイニングと、自然言語処理から借用したモデルを用いて、学生のインタラクションを理解します。
きめ細かいクリックストリームデータは、非商業的な教育支援システムであるDiderotを通じて収集される。
提案手法は,混合コースの低データ設定においても有意な洞察を得られることが示唆された。
論文 参考訳(メタデータ) (2020-05-31T03:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。