論文の概要: Show and Tell: Prompt Strategies for Style Control in Multi-Turn LLM Code Generation
- arxiv url: http://arxiv.org/abs/2511.13972v1
- Date: Mon, 17 Nov 2025 23:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.830521
- Title: Show and Tell: Prompt Strategies for Style Control in Multi-Turn LLM Code Generation
- Title(参考訳): ショー・アンド・テル:マルチTurn LLMコード生成におけるスタイル制御のプロンプト戦略
- Authors: Jeremiah Bohr,
- Abstract要約: 言語モデルは、過剰な冗長性に傾向のある機能的に正しいコードを生成する。
命令ベース,例ベース,および組み合わせプロンプトが初期制御と拡張訓練の異なるパターンを生成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models generate functionally correct code that tends toward excessive verbosity, with elaborate documentation and defensive patterns that diverge from human baselines. Two prompting mechanisms have emerged for stylistic control: instruction based prompts that articulate abstract directives, and example based prompts that provide concrete code demonstrations. The core problem is whether stylistic constraints persist when models enhance initial implementations with additional features while maintaining high functional accuracy. Here we show that instruction-based, example-based, and combined prompts produce distinct patterns of initial control and expansion discipline over one enhancement turn. We manipulated system prompts across four conditions in a paired two-turn protocol where models first generated solutions to an intermediate Python task, then revised their code under general improvement directives, holding the user task fixed (N = 160 paired programs). Combined prompts produced the strongest initial compression and greatest expansion discipline. Instructions showed large initial effects and moderate expansion discipline. Examples showed modest initial effects with no expansion discipline. These results show that initial prompt effectiveness and expansion discipline are separate aspects of prompt design, and that combined approaches provide the most stable stylistic control in this two-turn workflow.
- Abstract(参考訳): 言語モデルは、過剰な冗長性に傾向がある機能的に正しいコードを生成します。
抽象的な指示を記述した命令ベースのプロンプトと、具体的なコードデモを提供する例ベースのプロンプトである。
中心的な問題は、モデルが機能的精度を維持しながら追加機能で初期実装を強化する際に、スタイリスティックな制約が持続するかどうかである。
ここでは、命令ベース、例ベース、および組み合わせプロンプトが、1つのエンハンスメントターンで初期制御と拡張規律の異なるパターンを生成することを示す。
モデルが最初に中間Pythonタスクのソリューションを生成し、その後、ユーザタスクの固定(N = 160ペアプログラム)を保ちながら、一般的な改善ディレクティブの下でコードを修正した2ターンプロトコルで、システムプロンプトを4つの条件で操作した。
組み合わせられたプロンプトは、最も強い初期圧縮と最大の拡張の規律を生み出した。
インストラクションは、大きな初期効果と適度な拡張の規律を示した。
例では、拡張の規律のない、控えめな初期効果を示した。
これらの結果は、初期的即効性と拡張の規律がプロンプト設計の別な側面であることを示し、この2ターンワークフローにおいて、組み合わせたアプローチが最も安定したスタイリスティックな制御を提供することを示している。
関連論文リスト
- The Devil is in the Prompts: Retrieval-Augmented Prompt Optimization for Text-to-Video Generation [40.73687553764341]
RAPO(Retrieval-Augmented Prompt Optimization framework)を紹介する。
RAPOは、ユーザのプロンプトを2つの最適化ブランチを通じて洗練し、T2V生成の優れたプロンプトを選択する。
大規模な実験により、RAPOは生成されたビデオの静的次元と動的次元の両方を効果的に拡張できることが示された。
論文 参考訳(メタデータ) (2025-04-16T03:33:25Z) - Controllable Navigation Instruction Generation with Chain of Thought Prompting [74.34604350917273]
本稿では,C-インストラクタを提案する。C-インストラクタは,スタイル制御およびコンテンツ制御可能な命令生成のために,チェーン・オブ・シンクタスタイルのプロンプトを利用する。
C-インストラクタは生成した命令をより追従しやすくし、ランドマークオブジェクトの操作に対する制御性を高める。
論文 参考訳(メタデータ) (2024-07-10T07:37:20Z) - Prompt Sketching for Large Language Models [7.687678490751105]
大規模言語モデル(LLM)の最近のプロンプト戦略は、モデルを連続的に何度もクエリする。
これにより、不連結で好ましくない中間応答が生じる。
提案するプロンプトスケッチは,プロンプトの完了だけでなく,テンプレート内の複数の変数の値を予測することで,LLMが応答する新たなプロンプト処理パラダイムである。
論文 参考訳(メタデータ) (2023-11-08T18:57:23Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - Reinforcement Learning of Implicit and Explicit Control Flow in
Instructions [21.398051995216065]
動的環境で柔軟にタスク指示に従う学習は、強化学習エージェントにとって興味深い課題です。
ここでは、命令の厳格なステップバイステップ実行から逸脱する学習制御フローの問題に焦点を当てる。
我々は、タスク報酬のみから、命令の内部エンコーディングにおけるフレキシブルな参加と条件行動を学ぶことによって、これらの課題を満たす注意に基づくアーキテクチャを定式化する。
論文 参考訳(メタデータ) (2021-02-25T22:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。