論文の概要: ParaStudent: Generating and Evaluating Realistic Student Code by Teaching LLMs to Struggle
- arxiv url: http://arxiv.org/abs/2507.12674v2
- Date: Fri, 18 Jul 2025 01:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 12:36:33.521932
- Title: ParaStudent: Generating and Evaluating Realistic Student Code by Teaching LLMs to Struggle
- Title(参考訳): ParaStudent: LLMにストラグルを指導した現実的な学生コードの生成と評価
- Authors: Mihran Miroyan, Rose Niousha, Joseph E. Gonzalez, Gireeja Ranade, Narges Norouzi,
- Abstract要約: 大規模言語モデル(LLM)は、プログラミングタスクに強いパフォーマンスを示していますが、実際の学生のように、学生のようなコードを生成することができますか?
本稿では,LLMをベースとした「学生的」コード生成の体系的研究であるParaStudentについて紹介する。
- 参考スコア(独自算出の注目度): 24.691302820912888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown strong performance on programming tasks, but can they generate student-like code like real students - imperfect, iterative, and stylistically diverse? We present ParaStudent, a systematic study of LLM-based "student-like" code generation in an introductory programming course setting. Using a dataset of timestamped student submissions across multiple semesters, we design low- and high-resolution experiments to model student progress and evaluate code outputs along semantic, functional, and stylistic dimensions. Our results show that fine-tuning significantly improves alignment with real student trajectories and captures error patterns, incremental improvements, and stylistic variations more faithfully. This study shows that modeling realistic student code requires capturing learning dynamics through context-aware generation, temporal modeling, and multi-dimensional evaluation. Code for experiments and evaluation is available at https://github.com/mmiroyan/ParaStudent.
- Abstract(参考訳): 大規模言語モデル(LLM)は、プログラミングタスクに強いパフォーマンスを示していますが、実際の学生のように、不完全、反復的、スタイリスティックに多様な、学生のようなコードを生成することができますか?
本稿では,LLMをベースとした「学生的」コード生成の体系的研究であるParaStudentについて紹介する。
複数のセメータにまたがるタイムスタンプによる学生投稿のデータセットを用いて、学生の進捗をモデル化するための低解像度および高解像度の実験を設計し、意味論的、機能的、スタイリスティックな側面に沿ってコードアウトプットを評価する。
その結果,微調整は実際の学生軌道との整合性を著しく改善し,誤りパターン,漸進的な改善,スタイル変化をより忠実に捉えた。
本研究は,現実的な学生コードのモデリングには,文脈認識生成,時間的モデリング,多次元評価による学習ダイナミクスのキャプチャが必要であることを示す。
実験と評価のコードはhttps://github.com/mmiroyan/ParaStudent.comで公開されている。
関連論文リスト
- Embracing Imperfection: Simulating Students with Diverse Cognitive Levels Using LLM-based Agents [36.704574105201864]
大規模言語モデル(LLM)は教育に革命をもたらしており、LLMベースのエージェントは学生の振る舞いをシミュレートする上で重要な役割を果たしている。
学生シミュレーションにおける大きな課題は、様々な認知レベルにおける学生の多様な学習パターンをモデル化することである。
論文 参考訳(メタデータ) (2025-05-26T13:48:49Z) - Learning Code-Edit Embedding to Model Student Debugging Behavior [2.1485350418225244]
本稿では,学生の連続的なコード入力間で有意義なコード編集を学習するエンコーダ-デコーダモデルを提案する。
テストケースの正確性を改善しながら、生徒のコーディングスタイルを維持するための、パーソナライズされた次のステップのコード提案を可能にする。
論文 参考訳(メタデータ) (2025-02-26T18:54:39Z) - Classroom Simulacra: Building Contextual Student Generative Agents in Online Education for Learning Behavioral Simulation [10.209326669619273]
N = 60の学生から6週間の教育ワークショップを開催し、カスタマイズされたオンライン教育システムを用いて詳細なデータを収集する。
本稿では,転送可能な反復リフレクション(TIR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-02-04T23:42:52Z) - DataEnvGym: Data Generation Agents in Teacher Environments with Student Feedback [62.235925602004535]
DataEnvGymは、データ生成エージェントのための教師環境のテストベッドである。
エージェントとデータ生成エンジンを含むシーケンシャルな意思決定タスクとして、データ生成をフレーム化する。
学生は、生成されたデータに基づいて反復的に訓練され、評価され、各イテレーション後にエージェントにフィードバックが報告される。
論文 参考訳(メタデータ) (2024-10-08T17:20:37Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - Code Representation Learning At Scale [75.04686476303436]
2段階の事前学習スキームを用いて,大量のコードデータを用いてコード表現学習を行う。
まず、マスキング言語モデリングにおけるランダム性と、プログラミング言語の構造的側面の両方を活用して、エンコーダを訓練する。
そして、教師なしの方法で強陰性かつ強正に構築された対照的な学習を通して表現を強化する。
論文 参考訳(メタデータ) (2024-02-02T22:19:15Z) - Large Language Models for In-Context Student Modeling: Synthesizing Student's Behavior in Visual Programming [29.65988680948297]
本研究では,大規模言語モデル(LLM)のオープンエンド学習領域におけるコンテキスト内学習モデルへの応用について検討する。
学生の行動に LLM を利用する新しいフレームワーク LLM for Student Synthesis (LLM-SS) を導入する。
LLM-SSフレームワークに基づいて複数の手法をインスタンス化し、既存のベンチマークであるStudioSynを用いて視覚的プログラミング領域における学生の試行合成を行う。
論文 参考訳(メタデータ) (2023-10-15T12:56:13Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Multi-granulariy Time-based Transformer for Knowledge Tracing [9.788039182463768]
過去のテストスコアを含む学生の過去のデータを活用して、各学生にパーソナライズされたモデルを作成します。
次に、これらのモデルを使用して、将来のパフォーマンスを所定のテストで予測します。
論文 参考訳(メタデータ) (2023-04-11T14:46:38Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。