論文の概要: ParaStudent: Generating and Evaluating Realistic Student Code by Teaching LLMs to Struggle
- arxiv url: http://arxiv.org/abs/2507.12674v2
- Date: Fri, 18 Jul 2025 01:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 12:36:33.521932
- Title: ParaStudent: Generating and Evaluating Realistic Student Code by Teaching LLMs to Struggle
- Title(参考訳): ParaStudent: LLMにストラグルを指導した現実的な学生コードの生成と評価
- Authors: Mihran Miroyan, Rose Niousha, Joseph E. Gonzalez, Gireeja Ranade, Narges Norouzi,
- Abstract要約: 大規模言語モデル(LLM)は、プログラミングタスクに強いパフォーマンスを示していますが、実際の学生のように、学生のようなコードを生成することができますか?
本稿では,LLMをベースとした「学生的」コード生成の体系的研究であるParaStudentについて紹介する。
- 参考スコア(独自算出の注目度): 24.691302820912888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown strong performance on programming tasks, but can they generate student-like code like real students - imperfect, iterative, and stylistically diverse? We present ParaStudent, a systematic study of LLM-based "student-like" code generation in an introductory programming course setting. Using a dataset of timestamped student submissions across multiple semesters, we design low- and high-resolution experiments to model student progress and evaluate code outputs along semantic, functional, and stylistic dimensions. Our results show that fine-tuning significantly improves alignment with real student trajectories and captures error patterns, incremental improvements, and stylistic variations more faithfully. This study shows that modeling realistic student code requires capturing learning dynamics through context-aware generation, temporal modeling, and multi-dimensional evaluation. Code for experiments and evaluation is available at https://github.com/mmiroyan/ParaStudent.
- Abstract(参考訳): 大規模言語モデル(LLM)は、プログラミングタスクに強いパフォーマンスを示していますが、実際の学生のように、不完全、反復的、スタイリスティックに多様な、学生のようなコードを生成することができますか?
本稿では,LLMをベースとした「学生的」コード生成の体系的研究であるParaStudentについて紹介する。
複数のセメータにまたがるタイムスタンプによる学生投稿のデータセットを用いて、学生の進捗をモデル化するための低解像度および高解像度の実験を設計し、意味論的、機能的、スタイリスティックな側面に沿ってコードアウトプットを評価する。
その結果,微調整は実際の学生軌道との整合性を著しく改善し,誤りパターン,漸進的な改善,スタイル変化をより忠実に捉えた。
本研究は,現実的な学生コードのモデリングには,文脈認識生成,時間的モデリング,多次元評価による学習ダイナミクスのキャプチャが必要であることを示す。
実験と評価のコードはhttps://github.com/mmiroyan/ParaStudent.comで公開されている。
関連論文リスト
- Readability-Robust Code Summarization via Meta Curriculum Learning [53.44612630063336]
現実の世界では、コードが貧弱な構造や難読化され、モデルのパフォーマンスが著しく低下することが多い。
本稿では,可読性の低いコードに対するコード要約の堅牢性を向上する,新しい微調整手法であるRoFTCodeSumを提案する。
論文 参考訳(メタデータ) (2026-01-09T02:38:24Z) - Understanding Specification-Driven Code Generation with LLMs: An Empirical Study Design [2.687678248171195]
大規模言語モデル(LLM)は、ますますソフトウェア開発に統合されているが、構造化された仕様駆動プロセスにおけるそれらの振る舞いは、いまだに理解されていない。
本稿では,LLM支援コード生成のためのヒューマン・イン・ザ・ループ・ワークフローを実現するVisual Studio Code拡張であるCURRANTEを用いた実証的研究設計を提案する。
本研究の目的は,LLM生成コードの品質と力学に人間による介入がどう影響するかを解析することである。
論文 参考訳(メタデータ) (2026-01-07T12:46:57Z) - UCO: A Multi-Turn Interactive Reinforcement Learning Method for Adaptive Teaching with Large Language Models [59.693733170193944]
大規模言語モデル(LLM)は、教育環境において、回答提供者からインテリジェントな家庭教師へとシフトしている。
最近の強化学習アプローチはこの制限に対処するが、2つの重要な課題に直面している。
これらの課題に対処するために一方向認知最適化法(UCO)を提案する。
論文 参考訳(メタデータ) (2025-11-12T01:27:02Z) - Modeling Student Learning with 3.8 Million Program Traces [52.153493498021895]
Pencil Codeのユーザによる380万を越えるプログラミング推論のデータセットを紹介します。
実際のトレースに基づいてトレーニングされたモデルは、多様な学生の振る舞いをモデル化する上で、より強力であることがわかった。
我々は、コード生成モデルを操り、より正しいコードをもたらす一連の編集を識別することで、学生がミスから回復するのを支援できることを示します。
論文 参考訳(メタデータ) (2025-10-06T17:37:17Z) - Embracing Imperfection: Simulating Students with Diverse Cognitive Levels Using LLM-based Agents [36.704574105201864]
大規模言語モデル(LLM)は教育に革命をもたらしており、LLMベースのエージェントは学生の振る舞いをシミュレートする上で重要な役割を果たしている。
学生シミュレーションにおける大きな課題は、様々な認知レベルにおける学生の多様な学習パターンをモデル化することである。
論文 参考訳(メタデータ) (2025-05-26T13:48:49Z) - Learning Code-Edit Embedding to Model Student Debugging Behavior [2.1485350418225244]
本稿では,学生の連続的なコード入力間で有意義なコード編集を学習するエンコーダ-デコーダモデルを提案する。
テストケースの正確性を改善しながら、生徒のコーディングスタイルを維持するための、パーソナライズされた次のステップのコード提案を可能にする。
論文 参考訳(メタデータ) (2025-02-26T18:54:39Z) - Classroom Simulacra: Building Contextual Student Generative Agents in Online Education for Learning Behavioral Simulation [10.209326669619273]
N = 60の学生から6週間の教育ワークショップを開催し、カスタマイズされたオンライン教育システムを用いて詳細なデータを収集する。
本稿では,転送可能な反復リフレクション(TIR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-02-04T23:42:52Z) - DataEnvGym: Data Generation Agents in Teacher Environments with Student Feedback [62.235925602004535]
DataEnvGymは、データ生成エージェントのための教師環境のテストベッドである。
エージェントとデータ生成エンジンを含むシーケンシャルな意思決定タスクとして、データ生成をフレーム化する。
学生は、生成されたデータに基づいて反復的に訓練され、評価され、各イテレーション後にエージェントにフィードバックが報告される。
論文 参考訳(メタデータ) (2024-10-08T17:20:37Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - Code Representation Learning At Scale [75.04686476303436]
2段階の事前学習スキームを用いて,大量のコードデータを用いてコード表現学習を行う。
まず、マスキング言語モデリングにおけるランダム性と、プログラミング言語の構造的側面の両方を活用して、エンコーダを訓練する。
そして、教師なしの方法で強陰性かつ強正に構築された対照的な学習を通して表現を強化する。
論文 参考訳(メタデータ) (2024-02-02T22:19:15Z) - Large Language Models for In-Context Student Modeling: Synthesizing Student's Behavior in Visual Programming [29.65988680948297]
本研究では,大規模言語モデル(LLM)のオープンエンド学習領域におけるコンテキスト内学習モデルへの応用について検討する。
学生の行動に LLM を利用する新しいフレームワーク LLM for Student Synthesis (LLM-SS) を導入する。
LLM-SSフレームワークに基づいて複数の手法をインスタンス化し、既存のベンチマークであるStudioSynを用いて視覚的プログラミング領域における学生の試行合成を行う。
論文 参考訳(メタデータ) (2023-10-15T12:56:13Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Multi-granulariy Time-based Transformer for Knowledge Tracing [9.788039182463768]
過去のテストスコアを含む学生の過去のデータを活用して、各学生にパーソナライズされたモデルを作成します。
次に、これらのモデルを使用して、将来のパフォーマンスを所定のテストで予測します。
論文 参考訳(メタデータ) (2023-04-11T14:46:38Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。