論文の概要: EvoFSM: Controllable Self-Evolution for Deep Research with Finite State Machines
- arxiv url: http://arxiv.org/abs/2601.09465v1
- Date: Wed, 14 Jan 2026 13:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.408993
- Title: EvoFSM: Controllable Self-Evolution for Deep Research with Finite State Machines
- Title(参考訳): EvoFSM: 有限状態マシンを用いたディープリサーチのための制御可能な自己進化
- Authors: Shuo Zhang, Chaofa Yuan, Ryan Guo, Xiaomin Yu, Rui Xu, Zhangquan Chen, Zinuo Li, Zhi Yang, Shuhao Guan, Zhenheng Tang, Sen Hu, Liwen Zhang, Ronghao Chen, Huacan Wang,
- Abstract要約: EvoFSMは、明示的な有限状態マシンを進化させ、適応性と制御の両方を達成する構造化自己進化フレームワークである。
EvoFSMは、小さな制約された操作によってFSMを洗練し、また、再利用可能な事前および障害パターンとして成功したトラジェクトリを蒸留する自己進化メモリも組み込む。
特に、EvoFSMはDeepSearchベンチマークで58.0%の精度に達する。
- 参考スコア(独自算出の注目度): 23.086761228480682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While LLM-based agents have shown promise for deep research, most existing approaches rely on fixed workflows that struggle to adapt to real-world, open-ended queries. Recent work therefore explores self-evolution by allowing agents to rewrite their own code or prompts to improve problem-solving ability, but unconstrained optimization often triggers instability, hallucinations, and instruction drift. We propose EvoFSM, a structured self-evolving framework that achieves both adaptability and control by evolving an explicit Finite State Machine (FSM) instead of relying on free-form rewriting. EvoFSM decouples the optimization space into macroscopic Flow (state-transition logic) and microscopic Skill (state-specific behaviors), enabling targeted improvements under clear behavioral boundaries. Guided by a critic mechanism, EvoFSM refines the FSM through a small set of constrained operations, and further incorporates a self-evolving memory that distills successful trajectories as reusable priors and failure patterns as constraints for future queries. Extensive evaluations on five multi-hop QA benchmarks demonstrate the effectiveness of EvoFSM. In particular, EvoFSM reaches 58.0% accuracy on the DeepSearch benchmark. Additional results on interactive decision-making tasks further validate its generalization.
- Abstract(参考訳): LLMベースのエージェントは深い研究を約束しているが、既存のアプローチのほとんどは、現実世界のオープンなクエリに適応するのに苦労する固定されたワークフローに依存している。
そのため、最近の研究は、エージェントが自身のコードを書き直したり、問題解決能力を改善するよう促すことで自己進化を探求しているが、制約のない最適化は不安定、幻覚、命令のドリフトを引き起こすことが多い。
自由形式の書き換えに頼るのではなく、明示的な有限状態機械(FSM)を進化させることにより、適応性と制御性を両立する構造化自己進化フレームワークであるEvoFSMを提案する。
EvoFSMは最適化空間をマクロフロー(状態遷移論理)と微視的スキル(状態特異的な振る舞い)に分離し、明確な振る舞い境界の下で目標とする改善を可能にする。
批判メカニズムによってガイドされたEvoFSMは、小さな制約された操作によってFSMを洗練させ、また、成功したトラジェクトリを再利用可能なプレッシャとして蒸留する自己進化メモリと、将来のクエリの制約として障害パターンを組み込む。
5つのマルチホップQAベンチマークの大規模な評価は、EvoFSMの有効性を示している。
特に、EvoFSMはDeepSearchベンチマークで58.0%の精度に達する。
対話型意思決定タスクのさらなる結果は、その一般化をさらに検証する。
関連論文リスト
- LoongFlow: Directed Evolutionary Search via a Cognitive Plan-Execute-Summarize Paradigm [8.050281821865978]
LoongFlowは、最先端のソリューション品質を実現し、計算コストを大幅に削減するセルフ進化エージェントフレームワークである。
ブレンド」突然変異演算子とは異なり、LoongFlowはLarge Language Modelsを認知的なPlan-Execute-Summarize(PES)パラダイムに統合している。
長期的アーキテクチャコヒーレンスを維持するため、我々はハイブリッド進化記憶システムを組み込んだ。
論文 参考訳(メタデータ) (2025-12-30T08:39:28Z) - EvoIR: Towards All-in-One Image Restoration via Evolutionary Frequency Modulation [54.37259500020744]
EvoIRは、動的および適応的な画像復元のための進化周波数変調を導入する、AiOIR固有のフレームワークである。
具体的には、EvoIRは周波数変調モジュール(FMM)を採用し、特徴を高周波数分岐と低周波数分岐に明示的に分解する。
進化最適化戦略(EOS: Evolutionary Optimization Strategy)は、人口ベースの進化過程を通じて、周波数認識の目的を反復的に調整する。
論文 参考訳(メタデータ) (2025-12-04T18:59:10Z) - LLM4EO: Large Language Model for Evolutionary Optimization in Flexible Job Shop Scheduling [4.782301990330074]
この研究は、Large Language Models (LLM)を活用して進化力学を理解し、演算子レベルのメタ進化を可能にする。
提案するフレームワーク LLM4EO は,知識伝達に基づく演算子設計,進化知覚と解析,適応演算子進化の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-11-20T15:56:09Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - AutoEvoEval: An Automated Framework for Evolving Close-Ended LLM Evaluation Data [0.6278186810520364]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
既存の評価ベンチマークは、しばしば静的で、その堅牢性と一般化を十分に評価するのに不十分である。
本稿では,質問応答などのクローズドなタスクのための進化型評価フレームワークであるAutoEvoEvalを提案する。
論文 参考訳(メタデータ) (2025-06-30T11:18:56Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。