論文の概要: Designing Gaze Analytics for ELA Instruction: A User-Centered Dashboard with Conversational AI Support
- arxiv url: http://arxiv.org/abs/2509.03741v1
- Date: Wed, 03 Sep 2025 22:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.985301
- Title: Designing Gaze Analytics for ELA Instruction: A User-Centered Dashboard with Conversational AI Support
- Title(参考訳): ELAインストラクションのための迷路分析を設計する - 会話型AIをサポートするユーザ中心のダッシュボード
- Authors: Eduardo Davalos, Yike Zhang, Shruti Jain, Namrata Srivastava, Trieu Truong, Nafees-ul Haque, Tristan Van, Jorge Salas, Sara McFadden, Sun-Joo Cho, Gautam Biswas, Amanda Goodwin,
- Abstract要約: 視線追跡は、学生の認知とエンゲージメントに関する豊富な洞察を提供する。
しかし、教室向け教育技術では使われていない。
本稿では、英語芸術のための視線に基づく学習分析ダッシュボードの反復設計と評価について述べる。
- 参考スコア(独自算出の注目度): 3.741199946315248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye-tracking offers rich insights into student cognition and engagement, but remains underutilized in classroom-facing educational technology due to challenges in data interpretation and accessibility. In this paper, we present the iterative design and evaluation of a gaze-based learning analytics dashboard for English Language Arts (ELA), developed through five studies involving teachers and students. Guided by user-centered design and data storytelling principles, we explored how gaze data can support reflection, formative assessment, and instructional decision-making. Our findings demonstrate that gaze analytics can be approachable and pedagogically valuable when supported by familiar visualizations, layered explanations, and narrative scaffolds. We further show how a conversational agent, powered by a large language model (LLM), can lower cognitive barriers to interpreting gaze data by enabling natural language interactions with multimodal learning analytics. We conclude with design implications for future EdTech systems that aim to integrate novel data modalities in classroom contexts.
- Abstract(参考訳): アイトラッキングは、学生の認知とエンゲージメントに関する豊富な洞察を提供するが、データ解釈とアクセシビリティの課題のため、教室向け教育技術では未利用のままである。
本稿では,教師と学生を対象とする5つの研究を通じて開発された英語芸術(ELA)のための視線に基づく学習分析ダッシュボードの反復設計と評価について述べる。
ユーザ中心の設計とデータストーリテリングの原則によってガイドされた我々は、視線データがどのようにリフレクション、形式的アセスメント、指導的意思決定をサポートするかを探った。
この結果から,視線分析は身近な視覚化,階層的説明,物語的足場によって支援され,教育的にも有用であることが示唆された。
さらに,大規模言語モデル(LLM)を利用した対話エージェントが,マルチモーダル学習分析と自然言語の対話を可能にすることにより,視線データを解釈する認知的障壁を低くすることができることを示す。
我々は,新しいデータモダリティを教室のコンテキストに組み込むことを目的とした,将来のEdTechシステムの設計上の意味を結論づける。
関連論文リスト
- Automated Feedback on Student-Generated UML and ER Diagrams Using Large Language Models [39.58317527488534]
LLMツールのプロトタイプであるDUET(Diamatic & ER Tutor)を紹介する。
参照ダイアグラムと学生が提出したダイアグラムをテキスト表現に変換し、違いに基づいて構造化されたフィードバックを提供する。
多段階のLCMパイプラインを使用して図を比較し、反射フィードバックを生成する。
自己指導型学習を奨励し、指導戦略を伝えることを目的として、教育者の分析的な洞察を可能にする。
論文 参考訳(メタデータ) (2025-07-31T11:49:01Z) - Data Therapist: Eliciting Domain Knowledge from Subject Matter Experts Using Large Language Models [17.006423792670414]
我々は、ドメインの専門家が混在開始プロセスを通じて暗黙の知識を外部化するのに役立つWebベースのツールであるData Therapistを紹介します。
得られた構造化知識ベースは、人間と自動化された可視化設計の両方に通知することができる。
論文 参考訳(メタデータ) (2025-05-01T11:10:17Z) - A Review on Large Language Models for Visual Analytics [0.2209921757303168]
本稿では,視覚解析の理論的基盤と大規模言語モデル(LLM)の変容の可能性について概説する。
さらに、LLMと視覚分析の相乗効果が、データの解釈、可視化技術、対話的な探索機能をどのように強化するかを考察する。
本稿は,データ探索,可視化向上,自動レポート,洞察抽出支援における機能,強み,限界について論じる。
論文 参考訳(メタデータ) (2025-03-19T13:02:01Z) - VAAD: Visual Attention Analysis Dashboard applied to e-Learning [12.849976246445646]
このツールはVAADと呼ばれ、Visual Attention Analysis Dashboardの頭字語である。
VAADは、記述的視点と予測的視点の両方から、オンライン学習行動に関する貴重な洞察を提供する可能性を秘めている。
論文 参考訳(メタデータ) (2024-05-30T14:27:40Z) - Visual In-Context Learning for Large Vision-Language Models [62.5507897575317]
大規模視覚言語モデル(LVLM)では、言語間相互作用や表現格差の課題により、ICL(In-Context Learning)の有効性が制限されている。
本稿では,視覚的記述型検索,意図的画像要約,意図的記述型合成を含む新しい視覚的記述型学習(VICL)手法を提案する。
提案手法は'Retrieval & Rerank'パラダイムを用いて画像を検索し,タスク意図とタスク固有の視覚的パーシングで画像を要約し,言語による実演を構成する。
論文 参考訳(メタデータ) (2024-02-18T12:43:38Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。