論文の概要: A Declarative Language for Building And Orchestrating LLM-Powered Agent Workflows
- arxiv url: http://arxiv.org/abs/2512.19769v1
- Date: Mon, 22 Dec 2025 05:03:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.629684
- Title: A Declarative Language for Building And Orchestrating LLM-Powered Agent Workflows
- Title(参考訳): LLMによるエージェントワークフローの構築とオーケストレーションのための宣言型言語
- Authors: Ivan Daunis,
- Abstract要約: 本稿では,エージェントワークフロー仕様と実装を分離する宣言型システムを提案する。
これらの結果から,開発時間の60%削減,デプロイメント速度の3倍の改善が見られた。
製品検索やパーソナライズ,カート管理といった複雑な処理は,500行以上の命令型コードと比較して,50行未満のDSLで表現可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building deployment-ready LLM agents requires complex orchestration of tools, data sources, and control flow logic, yet existing systems tightly couple agent logic to specific programming languages and deployment models. We present a declarative system that separates agent workflow specification from implementation, enabling the same pipeline definition to execute across multiple backend languages (Java, Python, Go) and deployment environments (cloud-native, on-premises). Our key insight is that most agent workflows consist of common patterns -- data serialization, filtering, RAG retrieval, API orchestration -- that can be expressed through a unified DSL rather than imperative code. This approach transforms agent development from application programming to configuration, where adding new tools or fine-tuning agent behaviors requires only pipeline specification changes, not code deployment. Our system natively supports A/B testing of agent strategies, allowing multiple pipeline variants to run on the same backend infrastructure with automatic metric collection and comparison. We evaluate our approach on real-world e-commerce workflows at PayPal, processing millions of daily interactions. Our results demonstrate 60% reduction in development time, and 3x improvement in deployment velocity compared to imperative implementations. The language's declarative approach enables non-engineers to modify agent behaviors safely, while maintaining sub-100ms orchestration overhead. We show that complex workflows involving product search, personalization, and cart management can be expressed in under 50 lines of DSL compared to 500+ lines of imperative code.
- Abstract(参考訳): デプロイ対応のLLMエージェントを構築するには、ツール、データソース、制御フローロジックの複雑なオーケストレーションが必要ですが、既存のシステムは特定のプログラミング言語やデプロイメントモデルにエージェントロジックを密に結合します。
エージェントワークフロー仕様を実装から分離し,複数のバックエンド言語(Java,Python,Go)とデプロイ環境(クラウドネイティブ,オンプレミス)で同じパイプライン定義を実行可能にする宣言型システムを提案する。
私たちの重要な洞察は、ほとんどのエージェントワークフローは、命令型コードではなく統一DSLで表現できる、データシリアライゼーション、フィルタリング、RAG検索、APIオーケストレーションといった一般的なパターンで構成されています。
このアプローチは、エージェント開発をアプリケーションプログラミングからコンフィギュレーションに転換する。新しいツールの追加や微調整エージェントの振る舞いは、コードデプロイメントではなく、パイプライン仕様の変更のみを必要とする。
我々のシステムはエージェント戦略のA/Bテストをネイティブにサポートしており、複数のパイプライン変種を自動メトリクス収集と比較で同じバックエンドインフラストラクチャ上で実行することができる。
PayPalの実際のeコマースワークフローに対する我々のアプローチを評価し、数百万の日々のインタラクションを処理する。
これらの結果から,開発時間の60%削減,デプロイメント速度の3倍の改善が見られた。
宣言的な言語アプローチでは、100ms以下のオーケストレーションオーバーヘッドを維持しながら、非エンジニアがエージェントの動作を安全に修正することができる。
製品検索やパーソナライズ,カート管理といった複雑なワークフローは,500行以上の命令型コードと比較して,50行未満のDSLで表現可能であることを示す。
関連論文リスト
- FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - Open Agent Specification (Agent Spec): A Unified Representation for AI Agents [10.685555728094338]
我々はAIエージェントとエージェントを定義する宣言型言語Open Agent Specification(Agent Spec)を紹介する。
Agent Specは、コンポーネント、コントロールとデータフローのセマンティクス、スキーマの共通セットを定義し、エージェントを一度定義し、異なるランタイム間で実行できるようにする。
論文 参考訳(メタデータ) (2025-10-05T12:26:42Z) - Agent WARPP: Workflow Adherence via Runtime Parallel Personalization [0.0]
大規模言語モデル(LLM)はタスク指向対話(TOD)システムにますます適用されてきている。
並列パーソナライゼーション(WARPP)は、マルチエージェントランタイムとオーケストレーションを組み合わせた、トレーニング不要でモジュール化されたフレームワークである。
ユーザ属性に基づいて条件分岐を動的にプルーニングすることで、このフレームワークは推論のオーバーヘッドを減らし、実行時のツール選択を狭める。
論文 参考訳(メタデータ) (2025-07-23T23:27:49Z) - CodeAgents: A Token-Efficient Framework for Codified Multi-Agent Reasoning in LLMs [16.234259194402163]
マルチエージェント推論を符号化し、マルチエージェントシステムにおける構造化されたトークン効率の計画を可能にするプロンプトフレームワークであるCodeAgentsを紹介する。
その結果, 計画性能は一貫した改善がみられ, 基本となる自然言語よりも3~36ポイントの絶対的な向上が見られた。
論文 参考訳(メタデータ) (2025-07-04T02:20:19Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - FlowAgent: Achieving Compliance and Flexibility for Workflow Agents [31.088578094151178]
FlowAgentは、コンプライアンスと柔軟性の両方を維持するように設計された新しいエージェントフレームワークである。
PDL を基盤として,OOW クエリを効果的に管理する LLM を支援する包括的フレームワークを開発した。
本稿では,LLMエージェントのOOWシナリオ処理能力を評価するための新しい評価手法を提案する。
論文 参考訳(メタデータ) (2025-02-20T07:59:31Z) - PC-Agent: A Hierarchical Multi-Agent Collaboration Framework for Complex Task Automation on PC [98.82146219495792]
本稿では,PC-Agentという階層型エージェントフレームワークを提案する。
認識の観点からは,現在のMLLMのスクリーンショットコンテンツに対する認識能力の不十分さを克服するために,アクティブ知覚モジュール(APM)を考案する。
意思決定の観点から、複雑なユーザ命令や相互依存サブタスクをより効果的に扱うために、階層的なマルチエージェント協調アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-20T05:41:55Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Executable Code Actions Elicit Better LLM Agents [76.95566120678787]
この研究は、Pythonコードを使用して、Large Language Model(LLM)エージェントのアクションを統一されたアクション空間(CodeAct)に統合することを提案する。
Pythonインタプリタと統合されたCodeActは、コードアクションを実行し、事前アクションを動的に修正したり、マルチターンインタラクションを通じて新しい観察に新しいアクションを発行することができる。
CodeActのパフォーマンス向上は、解釈可能なコードを実行し、自然言語を使ってユーザとコラボレーションすることで、環境と対話するオープンソースのLLMエージェントを構築する動機となります。
論文 参考訳(メタデータ) (2024-02-01T21:38:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。