論文の概要: Interleaving Natural Language Prompting with Code Editing for Solving Programming Tasks with Generative AI Models
- arxiv url: http://arxiv.org/abs/2509.14088v1
- Date: Wed, 17 Sep 2025 15:32:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.903103
- Title: Interleaving Natural Language Prompting with Code Editing for Solving Programming Tasks with Generative AI Models
- Title(参考訳): プログラミングタスクを生成AIモデルで解くためのコード編集による自然言語プロンプトのインターリーブ
- Authors: Victor-Alexandru Pădurean, Paul Denny, Andrew Luxton-Reilly, Alkis Gotovos, Adish Singla,
- Abstract要約: 学生はしばしば、プログラミングタスクを解決するために自然言語のプロンプトと手作業によるコード編集に頼っている。
これらの2つのモードが実際にどのように組み合わされているか、そしてそれらの使い方が、タスクの複雑さや学生の能力とどのように異なるかを検討する。
分析の結果、学生は主に初期解を生成するためにプロンプトを使用しており、実行が失敗した後、短い編集実行ループを入力してコードを洗練することが多い。
- 参考スコア(独自算出の注目度): 20.071141463392813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, computing students often rely on both natural-language prompting and manual code editing to solve programming tasks. Yet we still lack a clear understanding of how these two modes are combined in practice, and how their usage varies with task complexity and student ability. In this paper, we investigate this through a large-scale study in an introductory programming course, collecting 13,305 interactions from 355 students during a three-day laboratory activity. Our analysis shows that students primarily use prompting to generate initial solutions, and then often enter short edit-run loops to refine their code following a failed execution. We find that manual editing becomes more frequent as task complexity increases, but most edits remain concise, with many affecting a single line of code. Higher-performing students tend to succeed using prompting alone, while lower-performing students rely more on edits. Student reflections confirm that prompting is helpful for structuring solutions, editing is effective for making targeted corrections, while both are useful for learning. These findings highlight the role of manual editing as a deliberate last-mile repair strategy, complementing prompting in AI-assisted programming workflows.
- Abstract(参考訳): 今日では、コンピュータの学生はプログラミングの課題を解決するために自然言語のプロンプトと手作業によるコード編集の両方に依存していることが多い。
しかし、これらの2つのモードが実際にどのように組み合わされているのか、それらの使い方がタスクの複雑さや学生の能力とどのように異なるのか、まだ明確には分かっていません。
本稿では,3日間の研究室活動において,355人の学生から13,305人のインタラクションを収集し,導入プログラミングコースにおける大規模研究を通じてこれを検証する。
分析の結果、学生は主に初期解を生成するためにプロンプトを使用しており、実行が失敗した後、短い編集実行ループを入力してコードを洗練することが多い。
タスクの複雑さが増すにつれて手作業による編集が頻繁になるが、ほとんどの編集は簡潔であり、その多くは1行のコードに影響を与えている。
ハイパフォーマンスな学生はプロンプトだけで成功する傾向があり、低パフォーマンスな学生はより編集に頼っている。
学生のリフレクションは、プロンプトがソリューションの構造化に役立ち、編集はターゲットの修正に有効であり、どちらも学習に有用であることを確認した。
これらの知見は、AI支援プログラミングワークフローにおいて、意図的なラストマイル修復戦略として手動編集が果たす役割を強調している。
関連論文リスト
- Integrating Natural Language Prompting Tasks in Introductory Programming Courses [3.907735250728617]
本報告では、導入プログラミングコースに2つのプロンプトに焦点を当てたアクティビティを組み込むことについて検討する。
第一に、学生は自然言語のプロンプトを書き、構文上の問題解決を強調することで、計算問題を解く必要がある。
2つ目は、プロンプトとコードの関係を理解するために、提供されたフラグメントに相当するコードを生成するプロンプトを作成することである。
論文 参考訳(メタデータ) (2024-10-04T01:03:25Z) - KIWI: A Dataset of Knowledge-Intensive Writing Instructions for
Answering Research Questions [63.307317584926146]
ユーザ命令に従うように適応された大規模言語モデル(LLM)は、現在では会話エージェントとして広くデプロイされている。
そこで本研究では,より一般的な命令追従タスクとして,長文の回答作成を支援することを提案する。
我々は、科学領域における知識集約的な記述命令のデータセットKIWIを構築した。
論文 参考訳(メタデータ) (2024-03-06T17:16:44Z) - InstructEdit: Instruction-based Knowledge Editing for Large Language Models [39.2147118489123]
InstructEditと呼ばれる命令ベースの編集技術を開発し、簡単な命令を使って様々なタスクパフォーマンスへのエディタの適応を容易にする。
予期せぬタスクを含む実験は、InstructEditが以前の強いベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-02-25T15:46:33Z) - On the Robustness of Editing Large Language Models [57.477943944826904]
大型言語モデル(LLM)はコミュニケーションAIの構築において重要な役割を担っているが、効率的な更新の課題に直面している。
この研究は、編集方法の長所と短所を理解し、コミュニケーション型AIの実践的応用を促進することを目的としている。
論文 参考訳(メタデータ) (2024-02-08T17:06:45Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。