論文の概要: Learning by Teaching: Engaging Students as Instructors of Large Language Models in Computer Science Education
- arxiv url: http://arxiv.org/abs/2508.05979v1
- Date: Fri, 08 Aug 2025 03:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.060242
- Title: Learning by Teaching: Engaging Students as Instructors of Large Language Models in Computer Science Education
- Title(参考訳): 教育による学習:コンピュータサイエンス教育における大規模言語モデルの指導者としての学生の育成
- Authors: Xinming Yang, Haasil Pujara, Jun Li,
- Abstract要約: 大規模言語モデル(LLM)はコンピュータサイエンス(CS)教育における仮想チューターとしてよく用いられる。
本稿では,このモデルを逆転させる新たな教育パラダイムについて述べる。
- 参考スコア(独自算出の注目度): 4.088336228217055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) are often used as virtual tutors in computer science (CS) education, this approach can foster passive learning and over-reliance. This paper presents a novel pedagogical paradigm that inverts this model: students act as instructors who must teach an LLM to solve problems. To facilitate this, we developed strategies for designing questions with engineered knowledge gaps that only a student can bridge, and we introduce Socrates, a system for deploying this method with minimal overhead. We evaluated our approach in an undergraduate course and found that this active-learning method led to statistically significant improvements in student performance compared to historical cohorts. Our work demonstrates a practical, cost-effective framework for using LLMs to deepen student engagement and mastery.
- Abstract(参考訳): 大規模言語モデル(LLM)はコンピュータサイエンス(CS)教育において仮想チューターとして使われることが多いが、このアプローチは受動的学習と過度信頼を育むことができる。
本稿では,このモデルを逆転させる,新たな教育パラダイムを提案する。
そこで我々は,学生だけが橋渡しできる知識ギャップを設計した質問を設計するための戦略を開発し,この手法を最小限のオーバーヘッドで展開するシステムであるSocratesを紹介した。
本手法が学生の成績を歴史的コホートに比較して統計的に有意に改善したことが明らかとなった。
我々の研究は、学生のエンゲージメントと熟達を深めるためにLLMを使用するための実用的で費用対効果の高いフレームワークを実証している。
関連論文リスト
- Partnering with AI: A Pedagogical Feedback System for LLM Integration into Programming Education [19.441958600393342]
本稿では,大規模言語モデル(LLM)によるフィードバック生成のための新しいフレームワークを提案する。
本研究は, 教員が枠組みに整合すると, LLMが学生を効果的に支援できると考えていることを示唆する。
しかし、動的な教室環境にフィードバックを適応できないなど、いくつかの制限があった。
論文 参考訳(メタデータ) (2025-07-01T03:48:48Z) - Improving Student-AI Interaction Through Pedagogical Prompting: An Example in Computer Science Education [1.1517315048749441]
大規模言語モデル(LLM)アプリケーションは、興奮と懸念の両方を引き起こした。
最近の研究は、LLMの誤用が学習の妨げとなることを一貫して強調している。
本研究の目的は,LLMの学習改善を効果的に促進する方法を学生に教えることである。
論文 参考訳(メタデータ) (2025-06-23T20:39:17Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [76.09281171131941]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
我々は、LSMプロンプトを最適化し、遷移グラフとして表される事前定義されたマルチターンチューリング計画に従うアルゴリズムであるStratLを開発した。
ケーススタディとして,先進的で効果的な学習設計であるProductive Failure (PF) に続く,高校数学のプロトタイプチューターを作成する。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。