論文の概要: Sketch Then Generate: Providing Incremental User Feedback and Guiding LLM Code Generation through Language-Oriented Code Sketches
- arxiv url: http://arxiv.org/abs/2405.03998v2
- Date: Fri, 10 May 2024 22:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 20:52:15.522397
- Title: Sketch Then Generate: Providing Incremental User Feedback and Guiding LLM Code Generation through Language-Oriented Code Sketches
- Title(参考訳): Sketchが生成する: インクリメンタルなフィードバックの提供と言語指向のコードスケッチによるLLMコード生成のガイド
- Authors: Chen Zhu-Tian, Zeyu Xiong, Xiaoshuo Yao, Elena Glassman,
- Abstract要約: 私たちはLanguage-Oriented Code Sketchingを紹介します。
このアプローチでは、プロンプト内の固有の言語構造を活用して、プロンプトをコードスケッチに変換する。
- 参考スコア(独自算出の注目度): 0.9715549306474006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crafting effective prompts for code generation or editing with Large Language Models (LLMs) is not an easy task. Particularly, the absence of immediate, stable feedback during prompt crafting hinders effective interaction, as users are left to mentally imagine possible outcomes until the code is generated. In response, we introduce Language-Oriented Code Sketching, an interactive approach that provides instant, incremental feedback in the form of code sketches (i.e., incomplete code outlines) during prompt crafting. This approach converts a prompt into a code sketch by leveraging the inherent linguistic structures within the prompt and applying classic natural language processing techniques. The sketch then serves as an intermediate placeholder that not only previews the intended code structure but also guides the LLM towards the desired code, thereby enhancing human-LLM interaction. We conclude by discussing the approach's applicability and future plans.
- Abstract(参考訳): コード生成やLLM(Large Language Models)による編集のための効果的なプロンプトの作成は容易ではない。
特に、即時かつ安定したフィードバックがない場合は、コードが生成されるまで、ユーザーが精神的に予測できる結果が残されるため、効果的なインタラクションを妨げます。
これに対してLanguage-Oriented Code Sketchingというインタラクティブなアプローチを導入しました。
このアプローチは、プロンプト内の固有の言語構造を活用し、古典的な自然言語処理技術を適用して、プロンプトをコードスケッチに変換する。
スケッチは、意図したコード構造をプレビューするだけでなく、所望のコードに向けてLLMを誘導する中間のプレースホルダーとして機能し、それによって人間とLLMのインタラクションが向上する。
我々は、アプローチの適用性と今後の計画について議論することで締めくくります。
関連論文リスト
- Statically Contextualizing Large Language Models with Typed Holes [4.180458188910334]
大規模言語モデル(LLM)は、プログラム合成のランドスケープを形変えた。
LLMは適切なコンテキストを持たないため、しばしば壊れたコードを幻覚させる。
本稿では,言語の種類と結合構造との密接な統合が,この文脈化問題に対処できることを実証する。
論文 参考訳(メタデータ) (2024-09-02T03:29:00Z) - Natural Language Outlines for Code: Literate Programming in the LLM Era [35.491976812197485]
我々は、開発者がAI支援を提供するための新しいモダリティとインタラクションサーフェスとして、自然言語のアウトラインを使うことを提案する。
コード関数のNLアウトラインは、簡潔な散文で書かれた複数のステートメントを含み、コードを分割し、その主要なアイデアをリテラトプログラミングのスタイルで要約する。
論文 参考訳(メタデータ) (2024-08-09T02:22:51Z) - NoviCode: Generating Programs from Natural Language Utterances by Novices [59.71218039095155]
初心者非プログラマによるAPIと自然言語記述を入力とする新しいNLプログラミングタスクであるNoviCodeを提示する。
我々は、NoviCodeがコード合成領域における挑戦的なタスクであることを示し、非技術的命令から複雑なコードを生成することは、現在のText-to-Codeパラダイムを超えている。
論文 参考訳(メタデータ) (2024-07-15T11:26:03Z) - Synthetic Programming Elicitation for Text-to-Code in Very Low-Resource Programming and Formal Languages [21.18996339478024]
SPEAC(emphsynthetic programming elicitation and compilation)を紹介する。
SPEACは、より頻繁に、意味的正しさを犠牲にすることなく、構文的に正しいプログラムを生成する。
UCLID5形式検証言語のケーススタディにおいて,SPEACの性能を実証的に評価した。
論文 参考訳(メタデータ) (2024-06-05T22:16:19Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Prompt Sketching for Large Language Models [7.687678490751105]
大規模言語モデル(LLM)の最近のプロンプト戦略は、モデルを連続的に何度もクエリする。
これにより、不連結で好ましくない中間応答が生じる。
提案するプロンプトスケッチは,プロンプトの完了だけでなく,テンプレート内の複数の変数の値を予測することで,LLMが応答する新たなプロンプト処理パラダイムである。
論文 参考訳(メタデータ) (2023-11-08T18:57:23Z) - CoLadder: Supporting Programmers with Hierarchical Code Generation in
Multi-Level Abstraction [16.325032481071997]
CoLadderは、階層的なタスク分解、直接コードセグメント操作、結果評価を容易にすることで、プログラマをサポートするシステムである。
12人の経験豊富なプログラマによるユーザスタディでは、CoLadderがプログラマの問題解決意図を柔軟に外部化するのに有効であることが示された。
論文 参考訳(メタデータ) (2023-10-12T20:07:01Z) - Code Prompting: a Neural Symbolic Method for Complex Reasoning in Large
Language Models [74.95486528482327]
コードプロンプト(code prompting)は、ゼロショットバージョンと少数ショットバージョンの両方を持ち、中間ステップとしてコードをトリガーするニューラルシンボルプロンプトである。
我々は,記号的推論と算術的推論を含む7つの広く使用されているベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-05-29T15:14:09Z) - PanGu-Coder: Program Synthesis with Function-Level Language Modeling [47.63943623661298]
PanGu-Coderは、PanGu-Alphaアーキテクチャを採用した事前訓練されたデコーダのみの言語モデルである。
最初の段階ではCausal Language Modellingを使用して、生のプログラミング言語データで事前トレーニングを行います。
第2段階では、Causal Language ModellingとMasked Language Modellingを組み合わせて、自然言語プログラム定義とコード関数のゆるくキュレートされたペアをトレーニングしている。
論文 参考訳(メタデータ) (2022-07-22T18:08:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。