論文の概要: Show and Tell: Prompt Strategies for Style Control in Multi-Turn LLM Code Generation
- arxiv url: http://arxiv.org/abs/2511.13972v1
- Date: Mon, 17 Nov 2025 23:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.830521
- Title: Show and Tell: Prompt Strategies for Style Control in Multi-Turn LLM Code Generation
- Title(参考訳): ショー・アンド・テル:マルチTurn LLMコード生成におけるスタイル制御のプロンプト戦略
- Authors: Jeremiah Bohr,
- Abstract要約: 言語モデルは、過剰な冗長性に傾向のある機能的に正しいコードを生成する。
命令ベース,例ベース,および組み合わせプロンプトが初期制御と拡張訓練の異なるパターンを生成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models generate functionally correct code that tends toward excessive verbosity, with elaborate documentation and defensive patterns that diverge from human baselines. Two prompting mechanisms have emerged for stylistic control: instruction based prompts that articulate abstract directives, and example based prompts that provide concrete code demonstrations. The core problem is whether stylistic constraints persist when models enhance initial implementations with additional features while maintaining high functional accuracy. Here we show that instruction-based, example-based, and combined prompts produce distinct patterns of initial control and expansion discipline over one enhancement turn. We manipulated system prompts across four conditions in a paired two-turn protocol where models first generated solutions to an intermediate Python task, then revised their code under general improvement directives, holding the user task fixed (N = 160 paired programs). Combined prompts produced the strongest initial compression and greatest expansion discipline. Instructions showed large initial effects and moderate expansion discipline. Examples showed modest initial effects with no expansion discipline. These results show that initial prompt effectiveness and expansion discipline are separate aspects of prompt design, and that combined approaches provide the most stable stylistic control in this two-turn workflow.
- Abstract(参考訳): 言語モデルは、過剰な冗長性に傾向がある機能的に正しいコードを生成します。
抽象的な指示を記述した命令ベースのプロンプトと、具体的なコードデモを提供する例ベースのプロンプトである。
中心的な問題は、モデルが機能的精度を維持しながら追加機能で初期実装を強化する際に、スタイリスティックな制約が持続するかどうかである。
ここでは、命令ベース、例ベース、および組み合わせプロンプトが、1つのエンハンスメントターンで初期制御と拡張規律の異なるパターンを生成することを示す。
モデルが最初に中間Pythonタスクのソリューションを生成し、その後、ユーザタスクの固定(N = 160ペアプログラム)を保ちながら、一般的な改善ディレクティブの下でコードを修正した2ターンプロトコルで、システムプロンプトを4つの条件で操作した。
組み合わせられたプロンプトは、最も強い初期圧縮と最大の拡張の規律を生み出した。
インストラクションは、大きな初期効果と適度な拡張の規律を示した。
例では、拡張の規律のない、控えめな初期効果を示した。
これらの結果は、初期的即効性と拡張の規律がプロンプト設計の別な側面であることを示し、この2ターンワークフローにおいて、組み合わせたアプローチが最も安定したスタイリスティックな制御を提供することを示している。
関連論文リスト
- Beyond Single Prompts: Synergistic Fusion and Arrangement for VICL [4.215181054941225]
Vision In-Context Learning (VICL) は、いくつかのプロンプトから新しい視覚タスクにインペイントモデルが迅速に適応できるようにする。
VICL法は,(1)最も類似したプロンプトのみを選択すると,他の高品質なプロンプトから補完的なキューを破棄し,(2)異なるプロンプトアレンジで入力される構造化情報を利用することができない,という2つの問題に悩まされている。
まず、適応型統合モジュールは複数のプロンプトから重要なパターンやアノテーションを集約し、より正確な文脈的プロンプトを形成する。
論文 参考訳(メタデータ) (2026-01-15T06:53:59Z) - KBQA-R1: Reinforcing Large Language Models for Knowledge Base Question Answering [64.62317305868264]
テキスト模倣から強化学習によるインタラクション最適化へパラダイムをシフトするフレームワークである textbfKBQA-R1 を提案する。
KBQAを多ターン決定プロセスとして扱うことで,行動のリストを用いて知識ベースをナビゲートすることを学ぶ。
WebQSP、GrailQA、GraphQuestionsの実験では、KBQA-R1が最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-10T17:45:42Z) - Exploring Direct Instruction and Summary-Mediated Prompting in LLM-Assisted Code Modification [10.964060011243234]
本稿では,大規模言語モデル(LLM)を用いた既存コードの変更について検討する。
プロンプティング(prompting)は、開発者がLLMにインテントを伝えるための主要なインターフェースである。
本研究では,LLM支援符号修正のための2つの手順について検討した。
論文 参考訳(メタデータ) (2025-08-02T23:52:49Z) - The Devil is in the Prompts: Retrieval-Augmented Prompt Optimization for Text-to-Video Generation [40.73687553764341]
RAPO(Retrieval-Augmented Prompt Optimization framework)を紹介する。
RAPOは、ユーザのプロンプトを2つの最適化ブランチを通じて洗練し、T2V生成の優れたプロンプトを選択する。
大規模な実験により、RAPOは生成されたビデオの静的次元と動的次元の両方を効果的に拡張できることが示された。
論文 参考訳(メタデータ) (2025-04-16T03:33:25Z) - Controllable Navigation Instruction Generation with Chain of Thought Prompting [74.34604350917273]
本稿では,C-インストラクタを提案する。C-インストラクタは,スタイル制御およびコンテンツ制御可能な命令生成のために,チェーン・オブ・シンクタスタイルのプロンプトを利用する。
C-インストラクタは生成した命令をより追従しやすくし、ランドマークオブジェクトの操作に対する制御性を高める。
論文 参考訳(メタデータ) (2024-07-10T07:37:20Z) - Prompt Sketching for Large Language Models [7.687678490751105]
大規模言語モデル(LLM)の最近のプロンプト戦略は、モデルを連続的に何度もクエリする。
これにより、不連結で好ましくない中間応答が生じる。
提案するプロンプトスケッチは,プロンプトの完了だけでなく,テンプレート内の複数の変数の値を予測することで,LLMが応答する新たなプロンプト処理パラダイムである。
論文 参考訳(メタデータ) (2023-11-08T18:57:23Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - IDPG: An Instance-Dependent Prompt Generation Method [58.45110542003139]
Prompt tuningは、モデルトレーニング段階で各入力インスタンスにタスク固有のプロンプトを追加する、新しい、効率的なNLP転送学習パラダイムである。
本稿では,各入力インスタンスのプロンプトを生成する条件付きプロンプト生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T15:45:27Z) - Reinforcement Learning of Implicit and Explicit Control Flow in
Instructions [21.398051995216065]
動的環境で柔軟にタスク指示に従う学習は、強化学習エージェントにとって興味深い課題です。
ここでは、命令の厳格なステップバイステップ実行から逸脱する学習制御フローの問題に焦点を当てる。
我々は、タスク報酬のみから、命令の内部エンコーディングにおけるフレキシブルな参加と条件行動を学ぶことによって、これらの課題を満たす注意に基づくアーキテクチャを定式化する。
論文 参考訳(メタデータ) (2021-02-25T22:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。