論文の概要: AdaptEvolve: Improving Efficiency of Evolutionary AI Agents through Adaptive Model Selection
- arxiv url: http://arxiv.org/abs/2602.11931v1
- Date: Thu, 12 Feb 2026 13:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.833382
- Title: AdaptEvolve: Improving Efficiency of Evolutionary AI Agents through Adaptive Model Selection
- Title(参考訳): AdaptEvolve: 適応モデル選択による進化型AIエージェントの効率向上
- Authors: Pretam Ray, Pratik Prabhanjan Brahma, Zicheng Liu, Emad Barsoum,
- Abstract要約: 進化的エージェントシステムは、計算効率と推論能力の間のトレードオフを強化する。
本稿では,AdaptEvolve: Adaptive Selection for Multi-LLM Evolutionary Refinementを紹介する。
- 参考スコア(独自算出の注目度): 14.17960333915609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evolutionary agentic systems intensify the trade-off between computational efficiency and reasoning capability by repeatedly invoking large language models (LLMs) during inference. This setting raises a central question: how can an agent dynamically select an LLM that is sufficiently capable for the current generation step while remaining computationally efficient? While model cascades offer a practical mechanism for balancing this trade-off, existing routing strategies typically rely on static heuristics or external controllers and do not explicitly account for model uncertainty. We introduce AdaptEvolve: Adaptive LLM Selection for Multi-LLM Evolutionary Refinement within an evolutionary sequential refinement framework that leverages intrinsic generation confidence to estimate real-time solvability. Empirical results show that confidence-driven selection yields a favourable Pareto frontier, reducing total inference cost by an average of 37.9% across benchmarks while retaining 97.5% of the upper-bound accuracy of static large-model baselines. Our code is available at https://github.com/raypretam/adaptive_llm_selection.
- Abstract(参考訳): 進化的エージェントシステムは、推論中に大きな言語モデル(LLM)を繰り返し呼び出すことによって、計算効率と推論能力のトレードオフを強化する。
エージェントは、計算効率を保ちながら、現在の生成ステップに十分な能力を持つLCMを動的に選択できるのか?
モデルカスケードは、このトレードオフのバランスをとるための実用的なメカニズムを提供するが、既存のルーティング戦略は通常、静的ヒューリスティックや外部コントローラに依存しており、モデルの不確実性を明確に考慮していない。
進化的シーケンシャル・リファインメント・フレームワークにおけるマルチLLM進化的リファインメントのための適応LLM選択法について述べる。
実験の結果、信頼性駆動の選択はパレートフロンティアに好適であり、ベンチマーク全体で平均37.9%の推論コストを削減し、静的な大モデルベースラインの上限精度の97.5%を維持した。
私たちのコードはhttps://github.com/raypretam/adaptive_llm_selectionで利用可能です。
関連論文リスト
- AceGRPO: Adaptive Curriculum Enhanced Group Relative Policy Optimization for Autonomous Machine Learning Engineering [52.67783579040657]
AceGRPOは、エージェントの学習フロンティアにおけるタスクを優先順位付けして学習効率を最大化する機械学習システムである。
我々のトレーニングされたAce-30Bモデルは、MLE-Bench-Lite上で100%有効な応募率を実現し、プロプライエタリなフロンティアモデルの性能にアプローチし、より大きなオープンソースベースラインを上回ります。
論文 参考訳(メタデータ) (2026-02-08T10:55:03Z) - Position: Agentic Evolution is the Path to Evolving LLMs [56.733933092220845]
この制限に対処するには、新たなスケーリング軸進化が必要です。
既存の展開時適応手法では、障害を診断し、持続的な改善を生み出すために必要な戦略的機関が欠如している。
論文 参考訳(メタデータ) (2026-01-30T22:15:58Z) - EvoCUA: Evolving Computer Use Agents via Learning from Scalable Synthetic Experience [44.734653745434834]
本稿では,ネイティブコンピュータ利用エージェントモデルであるEvoCUAを紹介する。
静的な模倣とは異なり、EvoCUAはデータ生成とポリシー最適化を自己持続的な進化サイクルに統合する。
EvoCUAは以前の最高のオープンソースモデルであるOpenCUA-72Bを大きく上回っている。
論文 参考訳(メタデータ) (2026-01-22T11:36:43Z) - Leveraging Stochastic Depth Training for Adaptive Inference [1.996143466020199]
本稿では,ゼロオーバーヘッド,単一モデル,時間予測可能な推論を用いた適応推論の簡易かつ効果的な代替手法を提案する。
従来のResNetと比較して、精度0.71%の低下で最大2倍の効率向上を実現した。
論文 参考訳(メタデータ) (2025-05-23T08:36:56Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [75.1351701045874]
Best-of-N selectionは、Large Language Models(LLMs)の推論性能を改善するための重要なテクニックである。
本稿では, LLM出力の固有確率分布を利用して, 外部報酬モデルを必要としない応答品質を推定する, 新規で効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - Memory-Enhanced Neural Solvers for Routing Problems [8.255381359612885]
本稿では、メモリを活用して推論時のニューラルソルバの探索を改善するアプローチであるMementOを提案する。
本研究は, ツリーサーチと政策段階の微調整よりも, 走行セールスマンとキャパシタント車両ルーティングの問題に有効性を示すものである。
我々は,大規模インスタンス上で全RL自動回帰解法をトレーニングし,MementOのスケーラビリティとデータ効率を検証した。
論文 参考訳(メタデータ) (2024-06-24T08:18:19Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,リトレーニングを繰り返して安定なモデル列を見つけるためのモデルに依存しないフレームワークを提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
平均的に、予測力の2%の低下は、安定性の30%の改善につながることが判明した。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。