論文の概要: Exploring Direct Instruction and Summary-Mediated Prompting in LLM-Assisted Code Modification
- arxiv url: http://arxiv.org/abs/2508.01523v1
- Date: Sat, 02 Aug 2025 23:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 14:05:11.892917
- Title: Exploring Direct Instruction and Summary-Mediated Prompting in LLM-Assisted Code Modification
- Title(参考訳): LLM支援符号修正における直接命令と概要入力プロンプトの探索
- Authors: Ningzhi Tang, Emory Smith, Yu Huang, Collin McMillan, Toby Jia-Jun Li,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いた既存コードの変更について検討する。
プロンプティング(prompting)は、開発者がLLMにインテントを伝えるための主要なインターフェースである。
本研究では,LLM支援符号修正のための2つの手順について検討した。
- 参考スコア(独自算出の注目度): 10.964060011243234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a study of using large language models (LLMs) in modifying existing code. While LLMs for generating code have been widely studied, their role in code modification remains less understood. Although "prompting" serves as the primary interface for developers to communicate intents to LLMs, constructing effective prompts for code modification introduces challenges different from generation. Prior work suggests that natural language summaries may help scaffold this process, yet such approaches have been validated primarily in narrow domains like SQL rewriting. This study investigates two prompting strategies for LLM-assisted code modification: Direct Instruction Prompting, where developers describe changes explicitly in free-form language, and Summary-Mediated Prompting, where changes are made by editing the generated summaries of the code. We conducted an exploratory study with 15 developers who completed modification tasks using both techniques across multiple scenarios. Our findings suggest that developers followed an iterative workflow: understanding the code, localizing the edit, and validating outputs through execution or semantic reasoning. Each prompting strategy presented trade-offs: direct instruction prompting was more flexible and easier to specify, while summary-mediated prompting supported comprehension, prompt scaffolding, and control. Developers' choice of strategy was shaped by task goals and context, including urgency, maintainability, learning intent, and code familiarity. These findings highlight the need for more usable prompt interactions, including adjustable summary granularity, reliable summary-code traceability, and consistency in generated summaries.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を用いた既存コードの変更について検討する。
コード生成のためのLLMは広く研究されているが、コード修正におけるそれらの役割はいまだに理解されていない。
プロンプティング(prompting)は、開発者がLLMにインテントを伝えるための主要なインターフェースであるが、コード修正のための効果的なプロンプトの構築は、生成と異なる課題をもたらす。
以前の研究は、自然言語の要約がこのプロセスの足場になるかもしれないことを示唆していたが、このようなアプローチは、主にSQL書き換えのような狭いドメインで検証されている。
本研究では,LLMによるコード修正の促進策として,開発者が自由形式言語で明示的に変更を記述するダイレクトインストラクション・プロンプティングと,生成されたコード要約を編集して変更を行う概要メディア・プロンプティングの2つについて検討する。
我々は,複数のシナリオにまたがる2つの手法を用いて修正作業を完了した15人の開発者を対象に,探索的研究を行った。
コード理解,編集のローカライズ,実行あるいはセマンティック推論によるアウトプットの検証という,反復的なワークフローを実践したことが示唆された。
ダイレクト命令のプロンプトはより柔軟で指定が容易で、サマリを介するプロンプトはサポートされた理解、足場のプロンプト、コントロールである。
開発者の戦略選択は、緊急性、保守性、学習意図、コードの親しみなど、タスクの目標とコンテキストによって形成されました。
これらの知見は、調整可能な要約の粒度、信頼性の高い要約コードトレーサビリティ、生成された要約の一貫性など、より有用なプロンプトインタラクションの必要性を強調している。
関連論文リスト
- IFEvalCode: Controlled Code Generation [69.28317223249358]
本稿では,Code LLMの命令追従能力を改善するために,前方および後方制約生成を提案する。
IFEvalCodeは、7つのプログラミング言語の1.6Kテストサンプルからなる多言語ベンチマークである。
論文 参考訳(メタデータ) (2025-07-30T08:08:48Z) - Post-Incorporating Code Structural Knowledge into LLMs via In-Context Learning for Code Translation [10.77747590700758]
大規模言語モデル(LLM)はソフトウェアマイニングにおいて大きな進歩を遂げた。
ソースコードの構文構造を扱うことは 依然として課題です
本稿では、コード構造知識を事前学習したLLMに組み込むために、インコンテキスト学習(ICL)を用いる。
論文 参考訳(メタデータ) (2025-03-28T10:59:42Z) - Prompting in the Wild: An Empirical Study of Prompt Evolution in Software Repositories [11.06441376653589]
本研究は,LSM統合ソフトウェア開発における迅速な進化の実証的研究である。
我々は、インシデント変更のパターンと頻度を調べるために、243のGitHubリポジトリにわたる1,262のインシデント変更を分析した。
私たちの調査によると、開発者は主に追加や修正を通じて進化し、ほとんどの変更は機能開発中に発生します。
論文 参考訳(メタデータ) (2024-12-23T05:41:01Z) - CodeEditorBench: Evaluating Code Editing Capability of Large Language Models [49.387195629660994]
コードのための大規模言語モデル(LLM)は急速に進化しており、コード編集が重要な機能として現れている。
コード編集タスクにおけるLLMの性能を厳格に評価するための評価フレームワークであるCodeEditorBenchを紹介する。
5つのソースからさまざまなコーディング課題やシナリオをキュレートし、さまざまなプログラミング言語、複雑性レベル、編集タスクをカバーしています。
論文 参考訳(メタデータ) (2024-04-04T15:49:49Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - A Prompt Learning Framework for Source Code Summarization [19.24919436211323]
本稿では,PromptCSと呼ばれるコード要約のための効果的なプロンプト学習フレームワークを提案する。
PromptCSはプロンプトエージェントを訓練し、コード要約において大きな言語モデルの可能性を解き放つために連続的なプロンプトを生成する。
論文 参考訳(メタデータ) (2023-12-26T14:37:55Z) - InstructCoder: Instruction Tuning Large Language Models for Code Editing [26.160498475809266]
ユーザインストラクションに基づいたコード編集にLLM(Large Language Models)を用いる方法について検討する。
InstructCoderは、汎用コード編集にLLMを適用するために設計された最初の命令チューニングデータセットである。
InstructCoderで微調整されたオープンソースのLLMは、コード編集の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-10-31T10:15:35Z) - Fixing Large Language Models' Specification Misunderstanding for Better Code Generation [13.494822086550604]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - Large Language Models are Few-Shot Summarizers: Multi-Intent Comment
Generation via In-Context Learning [34.006227676170504]
本研究では,大規模言語モデル(LLM)を用いて,開発者の多様な意図を満たすコメントを生成することの実現可能性について検討する。
2つの大規模なデータセットの実験は、私たちの洞察の理論的根拠を示しています。
論文 参考訳(メタデータ) (2023-04-22T12:26:24Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - OpenPrompt: An Open-source Framework for Prompt-learning [59.17869696803559]
PLM上でのプロンプト学習を行うための統一的な使いやすさツールキットであるOpenPromptを提案する。
OpenPromptは、効率性、モジュール性、拡張性を備えた、リサーチフレンドリーなフレームワークである。
論文 参考訳(メタデータ) (2021-11-03T03:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。