論文の概要: PseudoAct: Leveraging Pseudocode Synthesis for Flexible Planning and Action Control in Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2602.23668v1
- Date: Fri, 27 Feb 2026 04:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.249839
- Title: PseudoAct: Leveraging Pseudocode Synthesis for Flexible Planning and Action Control in Large Language Model Agents
- Title(参考訳): PseudoAct:大規模言語モデルエージェントにおけるフレキシブルプランニングとアクション制御のための擬似コード合成の活用
- Authors: Yihan, Wen, Xin Chen,
- Abstract要約: 大規模言語モデル(LLM)エージェントは通常、ReActのようなリアクティブな意思決定パラダイムに依存します。
本稿では、擬似コード合成によるLLMエージェントのフレキシブルプランニングとアクション制御のための新しいフレームワークであるPseudoActを紹介する。
ベンチマークデータセットの実験により、我々の手法は既存のリアクティブエージェントのアプローチを著しく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 5.5917393750392925
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language model (LLM) agents typically rely on reactive decision-making paradigms such as ReAct, selecting actions conditioned on growing execution histories. While effective for short tasks, these approaches often lead to redundant tool usage, unstable reasoning, and high token consumption in complex long-horizon tasks involving branching, iteration, or multi-tool coordination. To address these limitations, this paper introduces PseudoAct, a novel framework for flexible planning and action control in LLM agents through pseudocode synthesis. Leveraging the ability of LLMs to express task-solving strategies as code, PseudoAct synthesizes a structured pseudocode plan that decomposes a task into subtasks and explicitly encodes control flow, including sequencing, conditionals, loops, parallel composition, and combinations of these logic primitives. Actions are then executed by following this global plan, making the decision logic explicit and temporally coherent. This design reduces redundant actions, prevents infinite loops, and avoids uninformative alternative exploration, enabling consistent and efficient long-horizon decision-making. Experiments on benchmark datasets show that our method significantly outperforms existing reactive agent approaches, achieving a 20.93% absolute gain in success rate on FEVER and setting a new state-of-the-art on HotpotQA.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは通常、ReActのようなリアクティブな意思決定パラダイムに依存し、実行履歴の増大によって条件付けられたアクションを選択する。
短いタスクでは有効だが、これらのアプローチは、分岐、イテレーション、マルチツールの調整を含む複雑な長期タスクにおいて、冗長なツールの使用、不安定な推論、高いトークン消費につながることが多い。
これらの制約に対処するために,疑似コード合成によるLCMエージェントのフレキシブルプランニングとアクション制御のための新しいフレームワークであるPseudoActを紹介した。
タスク解決戦略をコードとして表現するLLMの機能を活用して、PseudoActは、タスクをサブタスクに分解し、シーケンス、条件、ループ、並列合成、これらのロジックプリミティブの組み合わせを含む制御フローを明示的にエンコードする構造化された擬似コードプランを合成する。
アクションは、このグローバルプランに従って実行され、決定ロジックを明確かつ時間的に一貫性のあるものにします。
この設計は冗長な動作を減らし、無限ループを防ぎ、非形式的な代替探索を回避し、一貫性と効率的な長距離意思決定を可能にする。
ベンチマークデータセットを用いた実験の結果,提案手法は既存のリアクティブエージェントのアプローチを著しく上回り,FEVERの絶対的な成功率20.93%を達成し,HotpotQAの新たな最先端設定を実現していることがわかった。
関連論文リスト
- ReCode: Unify Plan and Action for Universal Granularity Control [35.49121741462282]
現実世界のタスクは、様々な粒度の決定を必要とし、人間は、統一された認知表現を活用することで、これを優れている。
現在のLLM(Large Language Model)ベースのエージェントには、決定の粒度を流動的に操作する重要な機能が欠けている。
単一のコード表現内に計画とアクションを統合することで、この制限に対処する新しいパラダイムであるReCodeを提案する。
論文 参考訳(メタデータ) (2025-10-27T17:35:15Z) - Blueprint First, Model Second: A Framework for Deterministic LLM Workflow [3.9886771197662925]
我々は、"Blueprint First, Model Second"哲学に基づいた新しいパラダイムであるSource Code Agentフレームワークを紹介します。
私たちのフレームワークは、ワークフローロジックを生成モデルから切り離します。
我々の研究は、厳格な手続き論理に支配されるアプリケーションに自律エージェントを検証し、信頼性の高い配置を可能にする。
論文 参考訳(メタデータ) (2025-08-01T03:10:00Z) - Scalable Decision-Making in Stochastic Environments through Learned Temporal Abstraction [7.918703013303246]
我々は,高次元連続行動空間における決定を学習する上での課題に対処する潜在マクロ行動プランナー(L-MAP)を提案する。
L-MAPは状態条件ベクトル量子変分オートエンコーダ(VQ-VAE)を通して時間的に拡張されたマクロアクションの集合を学習する
連続制御タスクを含むオフラインRL設定では、L-MAPは離散潜在アクションを効率よく探索し、高い期待値が得られる。
論文 参考訳(メタデータ) (2025-02-28T16:02:23Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - DynaSaur: Large Language Agents Beyond Predefined Actions [126.98162266986554]
既存のLLMエージェントシステムは、通常、各ステップで固定セットと事前定義されたセットからアクションを選択する。
動作を動的に生成・構成できるLLMエージェントフレームワークを提案する。
このフレームワークでは、汎用プログラミング言語で書かれたプログラムを生成し実行することで、エージェントが環境と対話する。
論文 参考訳(メタデータ) (2024-11-04T02:08:59Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Accelerated Reinforcement Learning for Temporal Logic Control Objectives [10.216293366496688]
本稿では,未知マルコフ決定過程(MDP)をモデル化した移動ロボットの学習制御ポリシーの問題に対処する。
本稿では,制御ポリシを関連手法よりもはるかに高速に学習可能な制御対象に対するモデルベース強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T17:09:51Z) - Goal Kernel Planning: Linearly-Solvable Non-Markovian Policies for Logical Tasks with Goal-Conditioned Options [54.40780660868349]
我々はLinearly-Solvable Goal Kernel Dynamic Programming (LS-GKDP)と呼ばれる合成フレームワークを導入する。
LS-GKDPは、Linearly-Solvable Markov Decision Process (LMDP)形式とOptions Framework of Reinforcement Learningを組み合わせたものである。
本稿では,目標カーネルを持つLMDPが,タスク接地によって定義された低次元部分空間におけるメタポリティシの効率的な最適化を実現する方法を示す。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。