論文の概要: Automated Program Repair of Uncompilable Student Code
- arxiv url: http://arxiv.org/abs/2510.06187v1
- Date: Tue, 07 Oct 2025 17:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.40008
- Title: Automated Program Repair of Uncompilable Student Code
- Title(参考訳): コンパイル不能な学生コードの自動修復
- Authors: Griffin Pitts, Aum Pandya, Darsh Rank, Tirth Bhatt, Muntasir Hoq, Bita Akram,
- Abstract要約: 本研究では,コンパイル不能なコードの復旧戦略として,プログラムの自動修復について検討する。
GPT-5(OpenAI)、Claude 3.5 Haiku(Anthropic)、Gemini 2.5 Flash(Google)など、大規模な言語モデル(LLM)を修復エージェントとして評価する。
3つのLLMはいずれもコンパイル可能な修復を行うことができるが、それらの挙動は学生の制御フローとコード構造をいかによく維持するかにばらつきがある。
- 参考スコア(独自算出の注目度): 0.6039261200107887
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A significant portion of student programming submissions in CS1 learning environments are uncompilable, limiting their use in student modeling and downstream knowledge tracing. Traditional modeling pipelines often exclude these cases, discarding observations of student learning. This study investigates automated program repair as a strategy to recover uncompilable code while preserving students' structural intent for use in student modeling. Within this framework, we assess large language models (LLMs) as repair agents, including GPT-5 (OpenAI), Claude 3.5 Haiku (Anthropic), and Gemini 2.5 Flash (Google), under high- and low-context prompting conditions. Repairs were evaluated for compilability, edit distance, and preservation of students' original structure and logic. We find that while all three LLMs are capable of producing compilable repairs, their behavior diverges in how well they preserve students' control flow and code structure, which affects their pedagogical utility. By recovering uncompilable submissions, this work enables richer and more comprehensive analyses of learners' coding processes and development over time.
- Abstract(参考訳): CS1学習環境における学生プログラミング申請のかなりの部分はコンパイル不可能であり、学生モデリングや下流の知識追跡における使用を制限する。
伝統的なモデリングパイプラインはしばしばこれらのケースを除外し、学生の学習の観察を放棄する。
本研究では,学生が学生モデリングに使用する構造的意図を保ちながら,コンパイル不能なコードを復元する戦略として,プログラムの自動修復について検討する。
本フレームワークでは,GPT-5(OpenAI),Claude 3.5 Haiku(Anthropic),Gemini 2.5 Flash(Google)など,大規模言語モデル(LLM)を高コンテクストと低コンテクストのプロンプト条件下で修復エージェントとして評価する。
補修は, コンパイル性, 編集距離, 学生の本来の構造と論理の保存性について評価した。
3つのLCMはいずれもコンパイル可能な修復を行うことができるが、学生の制御フローやコード構造をいかによく維持するかは、教育的有用性に影響を及ぼす。
コンパイル不可能な提案を回復することにより、この作業は学習者のコーディングプロセスと開発を時間とともにより深く、より包括的に分析することを可能にする。
関連論文リスト
- Modeling Student Learning with 3.8 Million Program Traces [52.153493498021895]
Pencil Codeのユーザによる380万を越えるプログラミング推論のデータセットを紹介します。
実際のトレースに基づいてトレーニングされたモデルは、多様な学生の振る舞いをモデル化する上で、より強力であることがわかった。
我々は、コード生成モデルを操り、より正しいコードをもたらす一連の編集を識別することで、学生がミスから回復するのを支援できることを示します。
論文 参考訳(メタデータ) (2025-10-06T17:37:17Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - RePurr: Automated Repair of Block-Based Learners' Programs [10.540099048026496]
進化探索に基づくScratchの最初のAPR手法を提案する。
我々のRePurrプロトタイプは、テストスイートのガイダンスを改善するために、新しい障害ローカライゼーションの洗練を含んでいる。
実学習者のプログラムに対する実証的な評価は、期待される課題を裏付けるものである。
論文 参考訳(メタデータ) (2025-04-16T19:22:51Z) - ToolCoder: A Systematic Code-Empowered Tool Learning Framework for Large Language Models [81.12673534903979]
ツール学習は、大規模な言語モデル(LLM)にとって、外部ツールとのインタラクションを通じて、複雑な現実世界のタスクを解決する重要な機能として登場した。
本稿では,ツール学習をコード生成タスクとして再編成する新しいフレームワークであるToolCoderを提案する。
論文 参考訳(メタデータ) (2025-02-17T03:42:28Z) - Teaching Well-Structured Code: A Literature Review of Instructional Approaches [2.389598109913754]
この体系的な文献レビューは、既存の教育的アプローチ、その目的、およびそれらの効果を測定するために使用される戦略を識別する。
これらの研究は,(1)自動化ツールの開発・評価に焦点をあてた研究,(2)他の教材について議論する研究,(3)コード品質を支援するためのコース設計の全体的アプローチを通じて,カリキュラムにコード構造を統合する方法について議論する研究の3つのカテゴリに分類した。
論文 参考訳(メタデータ) (2025-02-16T18:51:22Z) - Can Large Language Models Understand Intermediate Representations in Compilers? [17.033963652676164]
中間表現(IR)は、コンパイラ設計とプログラム解析において重要な役割を果たす。
我々は6つの最先端の大規模言語モデル(LLM)のIR理解能力を評価する。
論文 参考訳(メタデータ) (2025-02-07T17:23:48Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - Enhancing Automated Program Repair through Fine-tuning and Prompt
Engineering [2.3826139428423576]
シーケンス・ツー・シーケンスのモデルは、十分に大規模なデータセットでトレーニングされた時に、誤ったプログラムを正しいプログラムに変換するために使われてきた。
いくつかの最近の研究は、コードレビューがプログラムの修復をさらに改善できるという強い実証的な証拠を示した。
PLとNLの本質的な知識が,プログラムの自動修復の改善に有効かどうかを検討する。
論文 参考訳(メタデータ) (2023-04-16T17:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。