論文の概要: Automated Formative Feedback for Short-form Writing: An LLM-Driven Approach and Adoption Analysis
- arxiv url: http://arxiv.org/abs/2509.22734v1
- Date: Thu, 25 Sep 2025 15:17:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.833683
- Title: Automated Formative Feedback for Short-form Writing: An LLM-Driven Approach and Adoption Analysis
- Title(参考訳): ショートフォーム記述のための自動フォーマティブフィードバック:LLM駆動アプローチと導入分析
- Authors: Tiago Fernandes Tavares, Luciano Pereira Soares,
- Abstract要約: 本稿では,工学プログラムにおけるAIベースの形式的フィードバックの開発と導入について検討する。
学生にドラフトレポートに対するパーソナライズされたフィードバックを提供し、完全性と品質の向上に向けて指導するためのツールが開発された。
- 参考スコア(独自算出の注目度): 1.2234742322758418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the development and adoption of AI-based formative feedback in the context of biweekly reports in an engineering Capstone program. Each student is required to write a short report detailing their individual accomplishments over the past two weeks, which is then assessed by their advising professor. An LLM-powered tool was developed to provide students with personalized feedback on their draft reports, guiding them toward improved completeness and quality. Usage data across two rounds revealed an initial barrier to adoption, with low engagement rates. However, students who engaged in the AI feedback system demonstrated the ability to use it effectively, leading to improvements in the completeness and quality of their reports. Furthermore, the tool's task-parsing capabilities provided a novel approach to identify potential student organizational tasks and deliverables. The findings suggest initial skepticism toward the tool with a limited adoption within the studied context, however, they also highlight the potential for AI-driven tools to provide students and professors valuable insights and formative support.
- Abstract(参考訳): 本稿では、工学的なCapstoneプログラムにおいて、隔週レポートの文脈におけるAIベースの形式的フィードバックの開発と導入について検討する。
各学生は、過去2週間にわたる個々の業績を詳述した短い報告書を書き、教授の助言によって評価される。
LLMを利用したツールは、学生にドラフトレポートに対するパーソナライズされたフィードバックを提供し、完全性と品質の向上を導くために開発された。
2ラウンドにわたる利用データから、採用の障壁が明らかになり、エンゲージメント率が低下した。
しかし、AIフィードバックシステムに携わる学生は、効果的に活用できることを示し、レポートの完全性や品質が改善された。
さらに、このツールのタスクパーシング能力は、潜在的な学生の組織的タスクや成果物を特定する新しいアプローチを提供した。
この調査結果は、研究対象の文脈内でしか採用されていないツールに対する最初の懐疑論を示唆しているが、学生や教授に貴重な洞察と形式的支援を提供するAI駆動ツールの可能性を強調している。
関連論文リスト
- Teaching at Scale: Leveraging AI to Evaluate and Elevate Engineering Education [3.557803321422781]
本稿では,大規模言語モデルを用いた定性的な学生フィードバックのためのスケーラブルなAI支援フレームワークを提案する。
このシステムは階層的な要約、匿名化、例外処理を用いて、オープンなコメントから実行可能なテーマを抽出する。
大規模な工学系大学への展開が成功したことを報告します。
論文 参考訳(メタデータ) (2025-08-01T20:27:40Z) - LLM Contribution Summarization in Software Projects [0.0]
本稿では、チームプロジェクト内の個々の貢献を評価する自動化的かつ客観的なアプローチの必要性に対処する。
本稿では,大言語モデル(LLM)を利用して,バージョン管理リポジトリから抽出したコードコントリビューションを自動的に要約するツールを提案する。
このツールは、65人の学生が参加する3週間のフルタイムのソフトウェア開発スプリントで、2つのセミメータで評価された。
論文 参考訳(メタデータ) (2025-05-23T10:26:43Z) - PyEvalAI: AI-assisted evaluation of Jupyter Notebooks for immediate personalized feedback [43.56788158589046]
PyEvalAIは、プライバシを保護するために、ユニットテストとローカルにホストされた言語モデルを組み合わせてJupyterノートをスコアする。
あるケーススタディは、大学レベルの数値科目における演習のフィードバック速度の向上と学習効率の向上に効果を示す。
論文 参考訳(メタデータ) (2025-02-25T18:20:20Z) - Transforming Student Evaluation with Adaptive Intelligence and Performance Analytics [0.0]
本稿では,人工知能を用いた学生のパフォーマンス評価システムについて述べる。
システムには、複数の選択、短い回答、記述的な質問を含む質問の形式がある。
プラットフォームにはインテリジェントな学習の進歩があり、ユーザーは特定のレベルのパフォーマンスを推奨するために自分のパフォーマンスを監視できる。
論文 参考訳(メタデータ) (2025-02-07T18:57:51Z) - AERA Chat: An Interactive Platform for Automated Explainable Student Answer Assessment [15.969280805269976]
AERA Chatは、生徒の回答の自動評価のために設計されたインタラクティブな視覚化プラットフォームである。
AERA Chatは複数の言語モデル(LLM)を活用して、生徒の回答を同時にスコアし、説明的合理性を生成する。
複数のデータセットに対する複数の合理的生成手法の評価を通じて,プラットフォームの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-12T11:57:53Z) - "I understand why I got this grade": Automatic Short Answer Grading with Feedback [33.63970664152288]
本稿では,フィードバックによる短時間回答自動グルーピングのためのデータセットであるEngineering Short Answer Feedback (EngSAF)を紹介する。
我々は,我々のラベル認識合成フィードバック生成(LASFG)戦略を用いて,最先端の大規模言語モデル(LLM)の生成能力を活用することで,データセットにフィードバックを組み込む。
最高のパフォーマンスモデル(Mistral-7B)は、それぞれ75.4%と58.7%の精度で、未確認の回答と未確認の質問テストセットで達成している。
論文 参考訳(メタデータ) (2024-06-30T15:42:18Z) - Improving the Validity of Automatically Generated Feedback via Reinforcement Learning [46.667783153759636]
強化学習(RL)を用いた正当性と整合性の両方を最適化するフィードバック生成フレームワークを提案する。
具体的には、直接選好最適化(DPO)によるトレーニングのための拡張データセットにおいて、GPT-4のアノテーションを使用してフィードバックペアよりも好みを生成する。
論文 参考訳(メタデータ) (2024-03-02T20:25:50Z) - Beyond Labels: Empowering Human Annotators with Natural Language
Explanations through a Novel Active-Learning Architecture [43.85335847262138]
現実世界のドメインの専門家(医師など)は、説明なしに日々のワークフローで意思決定ラベルに注釈を付けることは滅多にない。
本研究は,アノテーションのラベル付けと説明の現実的ニーズを支援するための,新しいアクティブラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-22T04:38:10Z) - Post Hoc Explanations of Language Models Can Improve Language Models [43.2109029463221]
AMPLIFY(Post Hoc Explanations)を用いたインコンテキスト学習の活用によるモデル性能向上のための新しいフレームワークを提案する。
我々は,各入力特徴がモデル予測に与える影響を抽出し,帰属スコア(説明)を出力するポストホック説明手法を活用する。
AMPLIFYは,幅広いタスクに対して約10~25%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-05-19T04:46:04Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。