論文の概要: Representing Prompting Patterns with PDL: Compliance Agent Case Study
- arxiv url: http://arxiv.org/abs/2507.06396v1
- Date: Tue, 08 Jul 2025 21:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.389111
- Title: Representing Prompting Patterns with PDL: Compliance Agent Case Study
- Title(参考訳): PDLによるプロンプトパターンの表現:コンプライアンスエージェントのケーススタディ
- Authors: Mandana Vaziri, Louis Mandel, Yuji Watanabe, Hirokuni Kitahara, Martin Hirzel, Anca Sailer,
- Abstract要約: 本稿では,プロンプト宣言言語(PDL)について紹介する。
PDLはフォアフロントにプロンプトをもたらし、手動および自動プロンプトチューニングを可能にする。
本稿では,コンプライアンスエージェントの実例研究を通じて,PDLの実用性を実証する。
- 参考スコア(独自算出の注目度): 1.5659201748872398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt engineering for LLMs remains complex, with existing frameworks either hiding complexity behind restrictive APIs or providing inflexible canned patterns that resist customization -- making sophisticated agentic programming challenging. We present the Prompt Declaration Language (PDL), a novel approach to prompt representation that tackles this fundamental complexity by bringing prompts to the forefront, enabling manual and automatic prompt tuning while capturing the composition of LLM calls together with rule-based code and external tools. By abstracting away the plumbing for such compositions, PDL aims at improving programmer productivity while providing a declarative representation that is amenable to optimization. This paper demonstrates PDL's utility through a real-world case study of a compliance agent. Tuning the prompting pattern of this agent yielded up to 4x performance improvement compared to using a canned agent and prompt pattern.
- Abstract(参考訳): LLMのプロンプトエンジニアリングは依然として複雑であり、既存のフレームワークは制限のあるAPIの背後にある複雑さを隠蔽するか、カスタマイズに抵抗する柔軟性のない缶詰パターンを提供する。
本稿では,プロンプト宣言言語(Prompt Declaration Language, PDL)を提案する。プロンプトを前面に持ってきて,ルールベースのコードや外部ツールとともにLLMコールの合成をキャプチャしながら,手動および自動的なプロンプトチューニングを可能にする。
このような構成の配管を抽象化することで、PDLはプログラマの生産性を向上させると同時に、最適化に適する宣言的表現を提供することを目指している。
本稿では,コンプライアンスエージェントの実例研究を通じて,PDLの実用性を実証する。
この剤のプロンプトパターンを調整すると、缶詰剤やプロンプトパターンに比べて最大4倍の性能向上が得られた。
関連論文リスト
- AutoPDL: Automatic Prompt Optimization for LLM Agents [1.715270928578365]
本稿では,大規模言語モデルのための優れたエージェント構成を見つけるための自動アプローチであるAutoPDLを提案する。
PDLプロンプト言語を用いた共通プロンプトパターンを実装したライブラリを提案する。
我々は、一貫性のある精度向上(9.06pm15.3$%ポイント)を68.9ppまで示し、選択したプロンプト戦略がモデルやタスクによって異なることを明らかにした。
論文 参考訳(メタデータ) (2025-04-06T05:30:10Z) - Pel, A Programming Language for Orchestrating AI Agents [1.223779595809275]
Pelは関数/ツール呼び出しと直接コード生成のギャップを埋めるために設計された新しいプログラミング言語である。
Lisp、Elixir、Gleam、Haskellの強みに触発されたPelは、構文的にシンプルで、ホモシニックで、セマンティックにリッチなプラットフォームを提供する。
主な特徴は、線形合成のための強力な配管機構、簡単な部分的アプリケーションと機能パターンを可能にするファーストクラスクロージャ、LLMが評価する自然言語条件のビルトインサポート、Common Lispスタイルの再起動を備えた高度なRead-Eval-Print-Loop(REPeL)、自動化のためのLLMベースのヘルパーエージェントである。
論文 参考訳(メタデータ) (2025-04-03T18:46:53Z) - Generating Structured Plan Representation of Procedures with LLMs [5.623006055588189]
本稿では,SOPを構造化表現に変換する新しい手法であるSOPStructuringを紹介する。
SOPStructは、異なるドメインにわたるSOPの標準化された表現を生成し、認知負荷を低減し、ユーザの理解を改善する。
我々の研究は、プロセスモデリングを合理化するために、大規模言語モデルの変換可能性を強調します。
論文 参考訳(メタデータ) (2025-03-28T22:38:24Z) - EpiCoder: Encompassing Diversity and Complexity in Code Generation [49.170195362149386]
既存のコード生成方法はシードデータとしてコードスニペットを使用する。
階層的なコード機能を中心に展開する,新しい機能ツリーベースの合成フレームワークを提案する。
我々のフレームワークは、生成されたコードの複雑さを正確に制御し、関数レベルの操作からマルチファイルのシナリオまで幅広い機能を実現する。
論文 参考訳(メタデータ) (2025-01-08T18:58:15Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Formally Specifying the High-Level Behavior of LLM-Based Agents [24.645319505305316]
LLMはタスク固有の微調整モデルを必要とせずに、課題を解決するための有望なツールとして登場した。
現在、このようなエージェントの設計と実装はアドホックであり、LLMベースのエージェントが自然に適用できる様々なタスクは、エージェント設計に一律に適合するアプローチが存在しないことを意味する。
エージェント構築のプロセスを簡単にする最小主義的生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T17:24:15Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。