論文の概要: Structured Prompt Language: Declarative Context Management for LLMs
- arxiv url: http://arxiv.org/abs/2602.21257v1
- Date: Mon, 23 Feb 2026 17:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.55883
- Title: Structured Prompt Language: Declarative Context Management for LLMs
- Title(参考訳): 構造化プロンプト言語: LLMのための宣言的コンテキスト管理
- Authors: Wen G. Gong,
- Abstract要約: SPL(Structured Prompt Language)は、大きな言語モデルを生成的知識ベースとして扱う。
SPLは急激なボイラープレートを平均で65%削減する。
SPLは同じsplスクリプトをOpencutionで0.002ドル、ローカルのOllamaインスタンスでゼロの限界費用で実行する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present SPL (Structured Prompt Language), a declarative SQL-inspired language that treats large language models as generative knowledge bases and their context windows as constrained resources. SPL provides explicit WITH BUDGET/LIMIT token management, an automatic query optimizer, EXPLAIN transparency analogous to SQL's EXPLAIN ANALYZE, and native integration of retrieval-augmented generation (RAG) and persistent memory in a single declarative framework. SPL-flow extends SPL into resilient agentic pipelines with a three-tier provider fallback strategy (Ollama -> OpenRouter -> self-healing retry) fully transparent to the .spl script. Five extensions demonstrate the paradigm's breadth: (1) Text2SPL (multilingual NL->SPL translation); (2) Mixture-of-Models (MoM) routing that dispatches each PROMPT to a domain-specialist model at runtime; (3) Logical Chunking, an intelligent strategy for documents exceeding a single context window--expressed naturally through SPL's existing CTE syntax with no new constructs, decomposing a large query into a Map-Reduce pipeline that reduces attention cost from O(N^2) to O(N^2/k) and runs identically on cloud (parallel) or local hardware (sequential); (4) SPL-flow, a declarative agentic orchestration layer with resilient three-tier provider fallback; and (5) BENCHMARK for parallel multi-model comparison with automatic winner persistence. We provide a formal EBNF grammar, two pip-installable Python packages (spl-llm, spl-flow), and comparison against Prompty, DSPy, and LMQL. SPL reduces prompt boilerplate by 65% on average, surfaces a 68x cost spread across model tiers as a pre-execution signal, and runs the identical .spl script at $0.002 on OpenRouter or at zero marginal cost on a local Ollama instance--without modification.
- Abstract(参考訳): SPL(Structured Prompt Language)は、大きな言語モデルを生成的知識ベースとして扱い、コンテキストウィンドウを制約付きリソースとして扱う宣言型SQLインスパイアされた言語である。
SPLは、BUDGET/LIMITトークン管理、自動クエリオプティマイザ、SQLのEXPLAIN ANALYZEに類似したEXPLAIN透過性、単一宣言型フレームワークでの検索拡張生成(RAG)と永続メモリのネイティブ統合を明示的に提供する。
SPL-flowは3層プロバイダのフォールバック戦略(Ollama -> OpenRouter -> self-healing retry)でSPLをレジリエントなエージェントパイプラインに拡張します。
Splスクリプト。
Text2SPL (multilingual NL->SPL translation), (2) それぞれのPROMPTを実行時にドメインスペシャリストモデルにディスパッチするMixture-of-Models (MoM)ルーティング,(3) 論理チャンキング,SPLの既存のCTE構文を通じて自然に表現されたドキュメントのインテリジェントな戦略,O(N^2)からO(N^2/k)への大きなクエリの分解,クラウド(並列)あるいはローカルハードウェア(シーケンス),(4) SPL-flow, レジリエント・フォールバック・プロバイダを備えた宣言的エージェントオーケストレーション層,(5) BENAR,(5) 並列処理モデルなどである。
正式なEBNF文法と2つのPipインストール可能なPythonパッケージ(spl-llm、spl-flow)を提供し、Prompty、DSPy、LMQLと比較する。
SPLは、プロンプトボイラープレートを平均で65%削減し、モデル層にまたがる68倍のコストを前処理信号として表し、同じ.NETアプリケーションを走らせる。
OpenRouterで0.002ドル、ローカルのOllamaインスタンスでゼロの限界費用で--修正なしで-.splスクリプトを起動する。
関連論文リスト
- DiffuRank: Effective Document Reranking with Diffusion Language Models [71.16830004674513]
拡散言語モデル(dLLM)に基づいて構築されたフレームワークであるDiffuRankを提案する。
dLLMは、左から右への順序に制約されないより柔軟なデコーディングと生成プロセスをサポートする。
モデルサイズが類似した自己回帰LDMに匹敵する性能を示す。
論文 参考訳(メタデータ) (2026-02-13T02:18:14Z) - A Declarative Language for Building And Orchestrating LLM-Powered Agent Workflows [0.0]
本稿では,エージェントワークフロー仕様と実装を分離する宣言型システムを提案する。
これらの結果から,開発時間の60%削減,デプロイメント速度の3倍の改善が見られた。
製品検索やパーソナライズ,カート管理といった複雑な処理は,500行以上の命令型コードと比較して,50行未満のDSLで表現可能であることを示す。
論文 参考訳(メタデータ) (2025-12-22T05:03:37Z) - BAPPA: Benchmarking Agents, Plans, and Pipelines for Automated Text-to-SQL Generation [3.2476501707160543]
既存の大規模言語モデル(LLM)は、大きなスキーマサイズと複雑な推論のために、自然な命令からsqlを生成するのに苦労する。
本研究では,3つのマルチエージェントLPMパイプラインを探索し,小規模から大規模のオープンソースモデルにまたがる系統的なパフォーマンスベンチマークを行う。
Bird-Bench Mini-Dev セットの実験では、マルチエージェントの議論は小さなモデルの性能を向上させることができ、Qwen2.5-7b-Instruct の実行精度は最大10.6%向上した。
論文 参考訳(メタデータ) (2025-11-06T08:00:15Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - PARALLELPROMPT: Extracting Parallelism from Large Language Model Queries [19.780108308260214]
本稿では,自然ユーザプロンプトにおけるクエリ内並列性を測定する最初のベンチマークであるPARALLELPROMPTを紹介する。
我々のデータセットは、パブリックなLLMチャットログから37,000以上の実世界のプロンプトで構成されています。
並列戦略とシリアル戦略をベンチマークし、レイテンシ、構造的忠実度、セマンティック忠実度を計測する実行スイートを提供する。
論文 参考訳(メタデータ) (2025-06-23T15:05:54Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Two are better than one: Context window extension with multi-grained self-injection [111.1376461868317]
SharedLLMは、多粒度コンテキスト圧縮とクエリ対応情報検索の設計哲学に基づく新しいアプローチである。
本研究では,テキストチャンクの多粒度コンテキスト情報を効率的にエンコードし,保存し,検索するための木構造データ構造を提案する。
論文 参考訳(メタデータ) (2024-10-25T06:08:59Z) - Joint Prompt Optimization of Stacked LLMs using Variational Inference [66.04409787899583]
大規模言語モデル(LLM)は、列上の分布への計算マッピングシーケンスの原子単位と見なすことができる。
そのような2つのレイヤを積み重ねて1つのレイヤの出力を次のレイヤに供給することで、Deep Language Network(DLN)を得る。
DLN-2は単一層よりも高い性能に到達できることを示し、GPT-4に匹敵する性能に達することを約束する。
論文 参考訳(メタデータ) (2023-06-21T18:45:56Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。