論文の概要: Investigating Student Interaction Patterns with Large Language Model-Powered Course Assistants in Computer Science Courses
- arxiv url: http://arxiv.org/abs/2509.08862v1
- Date: Wed, 10 Sep 2025 02:21:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.081035
- Title: Investigating Student Interaction Patterns with Large Language Model-Powered Course Assistants in Computer Science Courses
- Title(参考訳): コンピュータサイエンス科目における大規模言語モデルによる学生のインタラクションパターンの検討
- Authors: Chang Liu, Loc Hoang, Andrew Stolman, Rene F. Kizilcec, Bo Wu,
- Abstract要約: 大規模言語モデル(LLM)は、このギャップを埋める上で有望であるが、学生とLLM間の相互作用は、教育者によって監督されることは滅多にない。
我々は,複数のコンピュータ科学コースにまたがって展開されるLLMを利用したコースアシスタントを開発し,実世界の利用を特徴付けるとともに,教育的意味を理解する。
- 参考スコア(独自算出の注目度): 4.761218834684297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing students with flexible and timely academic support is a challenge at most colleges and universities, leaving many students without help outside scheduled hours. Large language models (LLMs) are promising for bridging this gap, but interactions between students and LLMs are rarely overseen by educators. We developed and studied an LLM-powered course assistant deployed across multiple computer science courses to characterize real-world use and understand pedagogical implications. By Spring 2024, our system had been deployed to approximately 2,000 students across six courses at three institutions. Analysis of the interaction data shows that usage remains strong in the evenings and nights and is higher in introductory courses, indicating that our system helps address temporal support gaps and novice learner needs. We sampled 200 conversations per course for manual annotation: most sampled responses were judged correct and helpful, with a small share unhelpful or erroneous; few responses included dedicated examples. We also examined an inquiry-based learning strategy: only around 11% of sampled conversations contained LLM-generated follow-up questions, which were often ignored by students in advanced courses. A Bloom's taxonomy analysis reveals that current LLM capabilities are limited in generating higher-order cognitive questions. These patterns suggest opportunities for pedagogically oriented LLM-based educational systems and greater educator involvement in configuring prompts, content, and policies.
- Abstract(参考訳): 柔軟でタイムリーなアカデミックな支援を学生に提供することは、ほとんどの大学や大学において課題であり、多くの学生は予定された時間外から助けを得られないままである。
大規模言語モデル(LLM)は、このギャップを埋める上で有望であるが、学生とLLM間の相互作用は、教育者によって監督されることは滅多にない。
我々は,複数のコンピュータ科学コースにまたがって展開されるLLMを利用したコースアシスタントを開発し,実世界の利用を特徴付けるとともに,教育的意味を理解する。
2024年春までに,3施設の6コースで約2,000名の学生に導入されていた。
インタラクションデータの解析から,夜間や夜間は利用が強く,導入コースも高い傾向を示し,時間的支援ギャップや初級学習者のニーズに対処する上で有効であることが示された。
手動のアノテーションのために,200の会話をサンプリングしました。ほとんどの回答は正しく,役に立つものと考えられています。
また,LLM によるフォローアップ質問は,11% に過ぎなかったが,高等科の学生には無視されることが多かった。
ブルームの分類学的分析により、現在のLLM機能は高次の認知的問題を引き起こす場合に限られていることが明らかになった。
これらのパターンは、教育指向のLLMベースの教育システムと、プロンプト、コンテンツ、ポリシーの設定により大きな教育者が関与する機会を示唆している。
関連論文リスト
- The StudyChat Dataset: Student Dialogues With ChatGPT in an Artificial Intelligence Course [1.9116784879310025]
大規模言語モデル(LLM)は教育に大きな影響を与え、機会と課題の両方を提起している。
本研究では,LLMを用いた実世界の学生インタラクションのデータセットであるStudioChatを紹介する。
本稿では,ChatGPTのコア機能を再現したWebアプリケーションをデプロイし,学生のLLMとのインタラクションをログに記録する。
これらの相互作用を分析し、利用傾向を強調し、特定の生徒の行動がコースの結果とどのように関連しているかを分析する。
論文 参考訳(メタデータ) (2025-03-11T00:17:07Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - How Do Students Interact with an LLM-powered Virtual Teaching Assistant in Different Educational Settings? [3.9134031118910264]
LLMを利用したバーチャル教育アシスタントであるJill Watson氏は、学生の質問に答えて、インストラクターが提供するコースウェア上での会話を延長する。
本稿では,Jill と学生の相互作用を,複数の科目や大学間で分析する。
幅広い認知的要求をサポートすることで、ジルは生徒に高度な高次認知的質問への参加を促している。
論文 参考訳(メタデータ) (2024-07-15T01:22:50Z) - MathChat: Benchmarking Mathematical Reasoning and Instruction Following in Multi-Turn Interactions [58.57255822646756]
本稿では,大規模言語モデル (LLM) を評価するためのベンチマークであるMathChatを紹介する。
我々は,MathChatベンチマーク上での様々なSOTA LLMの性能評価を行い,これらのモデルが単ターン質問応答において優れているが,より複雑なシナリオでは性能が著しく劣っていることを観察した。
我々は,LLMファインタニングのための合成対話に基づく数学データセットであるMathChat syncを開発した。
論文 参考訳(メタデータ) (2024-05-29T18:45:55Z) - CourseAssist: Pedagogically Appropriate AI Tutor for Computer Science Education [1.052788652996288]
このポスターでは、コンピュータサイエンス教育用に作られた新しいLLMベースのチューターシステムであるCourseAssistを紹介している。
一般的なLLMシステムとは異なり、CourseAssistは検索強化生成、ユーザ意図分類、質問分解を使用して、AI応答を特定のコース材料や学習目標と整合させる。
論文 参考訳(メタデータ) (2024-05-01T20:43:06Z) - Analyzing LLM Usage in an Advanced Computing Class in India [4.580708389528142]
本研究では,大規模言語モデル(LLM)を,大学院生や大学院生が高度なコンピューティングクラスにおけるプログラミング課題に活用することを検討した。
インド大学の分散システムクラスから411名の学生を対象に,総合的な分析を行った。
論文 参考訳(メタデータ) (2024-04-06T12:06:56Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Multimodal Lecture Presentations Dataset: Understanding Multimodality in
Educational Slides [57.86931911522967]
学習内容のマルチモーダル理解における機械学習モデルの能力を検証する。
このデータセットには,180時間以上のビデオと9000時間以上のスライドが,各科目から10人の講師が参加している。
マルチモーダル・トランスフォーマーであるPolyViLTを導入する。
論文 参考訳(メタデータ) (2022-08-17T05:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。