論文の概要: When Prompt Engineering Meets Software Engineering: CNL-P as Natural and Robust "APIs'' for Human-AI Interaction
- arxiv url: http://arxiv.org/abs/2508.06942v1
- Date: Sat, 09 Aug 2025 11:32:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.621018
- Title: When Prompt Engineering Meets Software Engineering: CNL-P as Natural and Robust "APIs'' for Human-AI Interaction
- Title(参考訳): Prompt Engineeringがソフトウエアエンジニアリングを語る: CNL-Pは人間とAIのインタラクションのための自然でロバストな"API"
- Authors: Zhenchang Xing, Yang Liu, Zhuo Cheng, Qing Huang, Dehai Zhao, Daniel Sun, Chenhua Liu,
- Abstract要約: 制御されたNL for Prompt (CNL-P)は、正確な文法構造と厳密な意味規範を導入している。
CNL-P は LLM のプロンプトの解釈と実行に役立つため、より一貫性があり高品質な出力が得られる。
特に,CNL-Pプロンプトの構文的および意味論的精度をチェックするリンティングツールを開発した。
- 参考スコア(独自算出の注目度): 17.793268790588794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing capabilities of large language models (LLMs), they are increasingly applied in areas like intelligent customer service, code generation, and knowledge management. Natural language (NL) prompts act as the ``APIs'' for human-LLM interaction. To improve prompt quality, best practices for prompt engineering (PE) have been developed, including writing guidelines and templates. Building on this, we propose Controlled NL for Prompt (CNL-P), which not only incorporates PE best practices but also draws on key principles from software engineering (SE). CNL-P introduces precise grammar structures and strict semantic norms, further eliminating NL's ambiguity, allowing for a declarative but structured and accurate expression of user intent. This helps LLMs better interpret and execute the prompts, leading to more consistent and higher-quality outputs. We also introduce an NL2CNL-P conversion tool based on LLMs, enabling users to write prompts in NL, which are then transformed into CNL-P format, thus lowering the learning curve of CNL-P. In particular, we develop a linting tool that checks CNL-P prompts for syntactic and semantic accuracy, applying static analysis techniques to NL for the first time. Extensive experiments demonstrate that CNL-P enhances the quality of LLM responses through the novel and organic synergy of PE and SE. We believe that CNL-P can bridge the gap between emerging PE and traditional SE, laying the foundation for a new programming paradigm centered around NL.
- Abstract(参考訳): 大規模言語モデル(LLM)の能力の増大に伴い、インテリジェントな顧客サービス、コード生成、知識管理といった分野にも採用されてきている。
自然言語(NL)は、人間とLLMのインタラクションの 'API' として機能する。
迅速な品質向上のために、ガイドラインやテンプレートを書くことを含む、プロンプトエンジニアリング(PE)のためのベストプラクティスが開発されている。
そこで我々は,PEのベストプラクティスを取り入れた制御NL for Prompt (CNL-P)を提案する。
CNL-Pは正確な文法構造と厳密な意味規範を導入し、さらにNLの曖昧さを排除し、宣言的だが構造化されたユーザ意図の正確な表現を可能にする。
これにより、LCMはプロンプトの解釈と実行がより良くなり、より一貫性があり、高品質な出力が得られる。
また、LLMをベースとしたNL2CNL-P変換ツールを導入し、ユーザがNLでプロンプトを書けるようにし、CNL-Pの学習曲線を小さくする。
特に,NLに静的解析技術を適用して,CNL-Pプロンプトの構文的・意味的精度をチェックするリンティングツールを開発した。
CNL-PはPEとSEの新規で有機的な相乗効果によってLLM応答の質を高める。
我々は、CNL-Pが新興PEと従来のSEのギャップを埋め、NLを中心にした新しいプログラミングパラダイムの基礎を築いたと信じている。
関連論文リスト
- Natural Language Outlines for Code: Literate Programming in the LLM Era [35.491976812197485]
我々は、開発者がAI支援を提供するための新しいモダリティとインタラクションサーフェスとして、自然言語のアウトラインを使うことを提案する。
コード関数のNLアウトラインは、簡潔な散文で書かれた複数のステートメントを含み、コードを分割し、その主要なアイデアをリテラトプログラミングのスタイルで要約する。
論文 参考訳(メタデータ) (2024-08-09T02:22:51Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Bayesian Optimization with LLM-Based Acquisition Functions for Natural Language Preference Elicitation [18.550311424902358]
大規模言語モデル(LLM)は、完全な自然言語(NL)PE対話を可能にする。
ユーザの好みの発話とNL項目記述の間で自然言語推論(NLI)を利用する新しいNL-PEアルゴリズムであるPEBOLを提案する。
PEBOLは最大0.27のMRR@10を達成できるのに対し、最高のモノリシックLCMベースラインのMRR@10は0.17のMRR@10を達成できる。
論文 参考訳(メタデータ) (2024-05-02T03:35:21Z) - Beyond Natural Language: LLMs Leveraging Alternative Formats for Enhanced Reasoning and Communication [79.79948834910579]
自然言語(NL)は長年、人間の認知とコミュニケーションの主要なフォーマットであった。
本研究では,異なる文脈における非NLフォーマットの有用性を検討することで,NLのデフォルト利用に挑戦する。
論文 参考訳(メタデータ) (2024-02-28T16:07:54Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - How could Neural Networks understand Programs? [67.4217527949013]
ソースコードにnlpプリトレーニング技術を直接適用するか、あるいはtheshelfによってモデルに機能を追加するかで、プログラムをより理解するためのモデルを構築するのは難しい。
本研究では,(1)操作セマンティクスの基本操作とよく一致する表現と(2)環境遷移の情報からなる情報から,モデルが学ぶべき新しいプログラムセマンティクス学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-05-10T12:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。