論文の概要: Using LLMs to support assessment of student work in higher education: a viva voce simulator
- arxiv url: http://arxiv.org/abs/2511.05530v1
- Date: Wed, 29 Oct 2025 06:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.023814
- Title: Using LLMs to support assessment of student work in higher education: a viva voce simulator
- Title(参考訳): LLMを用いた高等教育における学生作業の評価支援--ビバボイスシミュレータ
- Authors: Ian M. Church, Lyndon Drake, Mark Harris,
- Abstract要約: Viva voceシミュレータは対話型ツールで、人間の検査官がどんな質問をするべきかを尋ねる。
学生の回答を用いて、提出された作品が学生自身の作品であるかどうかを判断する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the emergent challenges of student work submitted for assessment is the widespread use of large language models (LLMs) to support and even produce written work. This particularly affects subjects where long-form written work is a key part of assessment. We propose a novel approach to addressing this challenge, using LLMs themselves to support the assessment process. We have developed a proof-of-concept viva voce examination simulator, which accepts the student's written submission as input, generates an interactive series of questions from the LLM and answers from the student. The viva voce simulator is an interactive tool which asks questions which a human examiner might plausibly ask, and uses the student's answers to form a judgment about whether the submitted piece of work is likely to be the student's own work. The interaction transcript is provided to the human examiner to support their final judgment. We suggest theoretical and practical points which are critical to real-world deployment of such a tool.
- Abstract(参考訳): 学生が評価のために提出した課題の1つは、大規模言語モデル(LLM)を広く利用して、著作物を支援し、生産することである。
これは特に、長文の著作が評価の重要な部分である対象に影響を及ぼす。
評価プロセスを支援するためにLLM自体を用いて,この問題に対処する新しいアプローチを提案する。
我々は,学生の文章を入力として受け入れ,LSMから対話的な質問のシリーズを生成し,学生から回答を得る,概念的ビヴァ音声検査シミュレータを開発した。
ビバボイスシミュレータは、人間の検査官がもっとも合理的に問うべき質問を対話的ツールであり、学生の回答を用いて、提出された作品が学生自身の作業であるかどうかを判断する。
最終判断を支持するために、ヒト検査官に相互作用転写書が提供される。
このようなツールの現実的な展開に不可欠な理論的・実践的ポイントを提案する。
関連論文リスト
- EduVidQA: Generating and Evaluating Long-form Answers to Student Questions based on Lecture Videos [8.393656792613]
本稿では,マルチモーダル大規模言語モデル(MLLM)を用いて,オンライン講義から学生の質問に自動的に答える方法について検討する。
EduVidQAデータセットは,296のコンピュータサイエンスビデオから5252対の質問応答ペア(合成と実の両方)で紹介され,さまざまなトピックと難易度をカバーしている。
論文 参考訳(メタデータ) (2025-09-28T23:33:58Z) - Can Large Language Models Help Students Prove Software Correctness? An Experimental Study with Dafny [75.55915044740566]
コンピューティング教育の学生は、ChatGPTのような大きな言語モデル(LLM)をますます利用している。
本稿では,Dafny の形式的検証演習において,学生が LLM とどのように相互作用するかを検討する。
論文 参考訳(メタデータ) (2025-06-27T16:34:13Z) - Using Large Language Models to Develop Requirements Elicitation Skills [1.1473376666000734]
チャットベースのインタビューにおいて,クライアントの役割を果たすために,大規模言語モデルを条件付けすることを提案する。
どちらの手法も、参加者が技術的に健全なソリューションを構築するのに十分な情報を提供する。
論文 参考訳(メタデータ) (2025-03-10T19:27:38Z) - Oversight in Action: Experiences with Instructor-Moderated LLM Responses in an Online Discussion Forum [2.86800540498016]
本稿では,インストラクターが制御するボットモジュールの設計,展開,評価について述べる。
ボットは、学生の質問に対するドラフトレスポンスを生成し、リリース前にレビュー、修正、承認される。
我々は、オブジェクト指向プログラミングに関する12週間のソフトウェア工学コースで、このツールを使った経験を報告する。
論文 参考訳(メタデータ) (2024-12-12T08:17:33Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - "My Grade is Wrong!": A Contestable AI Framework for Interactive Feedback in Evaluating Student Essays [6.810086342993699]
本稿では,対話型フィードバックを自動生成するContestable AI Empowered LLM FrameworkであるCAELFを紹介する。
CAELFは、マルチエージェントシステムと計算的議論を統合することで、学生がフィードバックをクエリし、挑戦し、明確化することができる。
ユーザスタディを用いた500の批判的思考エッセイのケーススタディでは,CAELFが対話的フィードバックを大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-09-11T17:59:01Z) - Large Language Model as an Assignment Evaluator: Insights, Feedback, and Challenges in a 1000+ Student Course [49.296957552006226]
大規模言語モデル(LLM)を自動評価に用いることは,NLP研究において重要な評価手法となっている。
本報告では,1028人の大学生を対象に,GPT-4を自動課題評価装置として利用する方法について述べる。
論文 参考訳(メタデータ) (2024-07-07T00:17:24Z) - Next-Step Hint Generation for Introductory Programming Using Large
Language Models [0.8002196839441036]
大きな言語モデルは、質問に答えたり、エッセイを書いたり、プログラミングの練習を解くといったスキルを持っている。
本研究は,LLMが学生に次のステップの自動ヒントを提供することで,プログラミング教育にどう貢献できるかを考察する。
論文 参考訳(メタデータ) (2023-12-03T17:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。