論文の概要: Pel, A Programming Language for Orchestrating AI Agents
- arxiv url: http://arxiv.org/abs/2505.13453v2
- Date: Mon, 09 Jun 2025 03:05:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.088319
- Title: Pel, A Programming Language for Orchestrating AI Agents
- Title(参考訳): Pel - AIエージェントをオーケストレーションするプログラミング言語
- Authors: Behnam Mohammadi,
- Abstract要約: Pelは関数/ツール呼び出しと直接コード生成のギャップを埋めるために設計された新しいプログラミング言語である。
Lisp、Elixir、Gleam、Haskellの強みに触発されたPelは、構文的にシンプルで、ホモシニックで、セマンティックにリッチなプラットフォームを提供する。
主な特徴は、線形合成のための強力な配管機構、簡単な部分的アプリケーションと機能パターンを可能にするファーストクラスクロージャ、LLMが評価する自然言語条件のビルトインサポート、Common Lispスタイルの再起動を備えた高度なRead-Eval-Print-Loop(REPeL)、自動化のためのLLMベースのヘルパーエージェントである。
- 参考スコア(独自算出の注目度): 1.223779595809275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of Large Language Models (LLMs) has opened new frontiers in computing, yet controlling and orchestrating their capabilities beyond simple text generation remains a challenge. Current methods, such as function/tool calling and direct code generation, suffer from limitations in expressiveness, scalability, cost, security, and the ability to enforce fine-grained control. This paper introduces Pel, a novel programming language specifically designed to bridge this gap. Inspired by the strengths of Lisp, Elixir, Gleam, and Haskell, Pel provides a syntactically simple, homoiconic, and semantically rich platform for LLMs to express complex actions, control flow, and inter-agent communication safely and efficiently. Pel's design emphasizes a minimal, easily modifiable grammar suitable for constrained LLM generation, eliminating the need for complex sandboxing by enabling capability control at the syntax level. Key features include a powerful piping mechanism for linear composition, first-class closures enabling easy partial application and functional patterns, built-in support for natural language conditions evaluated by LLMs, and an advanced Read-Eval-Print-Loop (REPeL) with Common Lisp-style restarts and LLM-powered helper agents for automated error correction. Furthermore, Pel incorporates automatic parallelization of independent operations via static dependency analysis, crucial for performant agentic systems. We argue that Pel offers a more robust, secure, and expressive paradigm for LLM orchestration, paving the way for more sophisticated and reliable AI agentic frameworks.
- Abstract(参考訳): LLM(Large Language Models)の普及により、コンピューティングの新たなフロンティアが開かれたが、単純なテキスト生成以上の能力の制御とオーケストレーションは依然として課題である。
関数/ツール呼び出しや直接コード生成といった現在のメソッドは、表現力、スケーラビリティ、コスト、セキュリティ、きめ細かい制御を強制する能力の制限に悩まされている。
本稿では,このギャップを埋めるための新しいプログラミング言語であるPelを紹介する。
Lisp、Elixir、Gleam、Haskellの強みに触発されたPelは、LLMが複雑なアクション、制御フロー、エージェント間通信を安全かつ効率的に表現するための、構文的にシンプルで、ホモシニックで、意味的にリッチなプラットフォームを提供する。
ペルの設計は、制約付きLLM生成に適した最小限の修正可能な文法を強調しており、構文レベルでの能力制御を可能にすることで、複雑なサンドボックス化の必要性を排除している。
主な機能としては、線形合成のための強力な配管機構、簡単な部分的アプリケーションと関数パターンを可能にするファーストクラスクロージャ、LLMが評価する自然言語条件の組み込みサポート、Common Lispスタイルの再起動を備えた高度なRead-Eval-Print-Loop(REPeL)、自動エラー修正のためのLLMヘルパーエージェントなどがある。
さらに、Pelは、パフォーマンスエージェントシステムに不可欠な静的依存分析による独立操作の自動並列化を取り入れている。
私たちは、PelがLLMオーケストレーションのためのより堅牢でセキュアで表現力豊かなパラダイムを提供し、より洗練され信頼性の高いAIエージェントフレームワークの道を開いたと論じています。
関連論文リスト
- Robust Hypothesis Generation: LLM-Automated Language Bias for Inductive Logic Programming [3.641087660577424]
大規模言語モデル(LLM)とインダクティブ論理プログラミング(ILP)を組み合わせたマルチエージェントシステムを統合する新しいフレームワークを提案する。
我々のLLMエージェントは、構造化されたシンボル語彙(述語)と関係テンプレートを自律的に定義する。
多様な、挑戦的なシナリオの実験は、優れたパフォーマンスを検証し、自動化され、説明可能で、検証可能な仮説生成のための新しいパスを舗装する。
論文 参考訳(メタデータ) (2025-05-27T17:53:38Z) - Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - API Agents vs. GUI Agents: Divergence and Convergence [35.28490346033735]
APIとGUIベースの大規模言語モデル(LLM)は、グラフィカルなユーザインターフェースを人間的な方法で操作する。
本稿では,それらの分散と潜在的収束を系統的に解析する。
LLMベースの自動化における継続的なイノベーションは、APIとGUI駆動エージェントの境界線を曖昧にする可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-03-14T04:26:21Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - LLM as a code generator in Agile Model Driven Development [1.12646803578849]
この研究は、これらの課題を克服するための実行可能な戦略としてモデル駆動開発(MDD)を擁護します。
我々は GPT4 をコードジェネレータとして利用する Agile Model Driven Development (AMDD) アプローチを提案する。
GPT4自動生成機能を適用すると、JADEおよびPADEフレームワークと互換性のあるJavaとPythonコードが生成される。
論文 参考訳(メタデータ) (2024-10-24T07:24:11Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - APPL: A Prompt Programming Language for Harmonious Integration of Programs and Large Language Model Prompts [21.819126948549766]
大規模言語モデル(LLM)は、巧妙なプロンプトの助けを借りて、多様なタスクを扱う能力が高まっている。
APPLはコンピュータプログラムとLLMの間のブリッジとして機能し、Python関数へのプロンプトのシームレスな埋め込みを可能にする。
論文 参考訳(メタデータ) (2024-06-19T02:29:59Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [18.816077341295628]
我々は,IoTデバイス間の効果的なコラボレーションを可能にするタスク指向AIフレームワークであるLLMindを紹介する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMとドメイン固有のAIモジュールを統合する。
複数のドメイン固有のAIモジュールとIoTデバイスのコラボレーションを含む複雑なタスクは、コントロールスクリプトを介して実行される。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。