論文の概要: "I Wrote, I Paused, I Rewrote" Teaching LLMs to Read Between the Lines of Student Writing
- arxiv url: http://arxiv.org/abs/2506.08221v1
- Date: Mon, 09 Jun 2025 20:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.754982
- Title: "I Wrote, I Paused, I Rewrote" Teaching LLMs to Read Between the Lines of Student Writing
- Title(参考訳): 学生の文章の行間を読むための「I Wrote, I Paused, I Rewrote」
- Authors: Samra Zafar, Shaheer Minhas, Syed Ali Hassan Zaidi, Arfa Naeem, Zahra Ali,
- Abstract要約: Geminiのような大規模な言語モデルは、学生の執筆を支援する一般的なツールになりつつある。
彼らのフィードバックの大部分は、そのテキストの書き方に関する重要な文脈を欠いた最後のエッセイに基づいている。
私たちは、学生のタイプとエッセイの時間とともにどのように進化していくかをキャプチャーするデジタル・ライティング・ツールを構築しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models(LLMs) like Gemini are becoming common tools for supporting student writing. But most of their feedback is based only on the final essay missing important context about how that text was written. In this paper, we explore whether using writing process data, collected through keystroke logging and periodic snapshots, can help LLMs give feedback that better reflects how learners think and revise while writing. We built a digital writing tool that captures both what students type and how their essays evolve over time. Twenty students used this tool to write timed essays, which were then evaluated in two ways: (i) LLM generated feedback using both the final essay and the full writing trace, and (ii) After the task, students completed surveys about how useful and relatable they found the feedback. Early results show that learners preferred the process-aware LLM feedback, finding it more in tune with their own thinking. We also found that certain types of edits, like adding new content or reorganizing paragraphs, aligned closely with higher scores in areas like coherence and elaboration. Our findings suggest that making LLMs more aware of the writing process can lead to feedback that feels more meaningful, personal, and supportive.
- Abstract(参考訳): Geminiのような大規模言語モデル(LLM)は、学生書き込みをサポートする一般的なツールになりつつある。
しかし、彼らのフィードバックの大部分は、そのテキストの書き方に関する重要な文脈を欠いた最後のエッセイに基づいている。
本稿では、キーストロークログや定期スナップショットを通じて収集されたプロセスデータを用いて、学習者が書きながらどのように考え、修正するかを反映したフィードバックをLLMが提供できるかどうかを考察する。
私たちは、学生のタイプとエッセイの時間とともにどのように進化していくかをキャプチャーするデジタル・ライティング・ツールを構築しました。
20人の学生がこのツールを使ってタイムドエッセイを書いた。
i) LLMは、最終エッセイと全書跡の両方を用いてフィードバックを生成し、
2) 課題後, 学生は, フィードバックがいかに有用で, 関連性が高いかの調査を完了した。
初期の研究結果から,学習者はプロセス対応のLLMフィードバックを好み,学習者自身の思考に合わせた結果が得られた。
また、新しいコンテンツを追加したり、段落を再編成したりといったある種の編集が、コヒーレンスや共同作業といった分野のより高いスコアと密接に一致していることもわかりました。
以上の結果から,LSMを筆記プロセスにもっと意識させることが,より有意義で,個人的で,支援的なフィードバックにつながることが示唆された。
関連論文リスト
- LitLLMs, LLMs for Literature Review: Are we there yet? [15.785989492351684]
本稿では,近年の大規模言語モデルのゼロショット能力について,要約に基づく文献レビューの執筆支援について考察する。
まず LLM を用いて,論文の要約から意味のあるキーワードを抽出する新しい2段階探索手法を提案する。
生成段階では、まずレビューの計画を概説し、次に実際のレビューを生成するためのステップを実行する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-15T01:12:26Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Exploring LLM Prompting Strategies for Joint Essay Scoring and Feedback Generation [13.854903594424876]
大規模言語モデル(LLM)は、一貫性と文脈に関連のあるテキストを生成する上で、強力な性能を示している。
本研究は,LLMをベースとしたゼロショットと数発のエッセイフィードバックの促進戦略について検討する。
Chain-of-Thoughtのプロンプトにインスパイアされた私たちは、自動エッセイスコア(AES)が生成したフィードバックの品質にどのような影響を及ぼすか、その程度について調査する。
論文 参考訳(メタデータ) (2024-04-24T12:48:06Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。