論文の概要: The Agent Capability Problem: Predicting Solvability Through Information-Theoretic Bounds
- arxiv url: http://arxiv.org/abs/2512.07631v1
- Date: Mon, 08 Dec 2025 15:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.943694
- Title: The Agent Capability Problem: Predicting Solvability Through Information-Theoretic Bounds
- Title(参考訳): エージェント能力問題:情報理論境界による解決可能性予測
- Authors: Shahar Lutati,
- Abstract要約: 本稿では,エージェントが資源制約の下で解決できるかどうかを予測するためのフレームワークであるエージェント能力問題(ACP)を紹介する。
我々は、$Ceff$低バウンドが期待されるコストと、厳密な確率的上限を提供することを証明した。
ACPの予測は、実際のエージェントのパフォーマンスを密に追跡し、探索努力を一貫して制限し、欲求やランダムな戦略よりも効率を向上することを示す。
- 参考スコア(独自算出の注目度): 5.85480332059272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When should an autonomous agent commit resources to a task? We introduce the Agent Capability Problem (ACP), a framework for predicting whether an agent can solve a problem under resource constraints. Rather than relying on empirical heuristics, ACP frames problem-solving as information acquisition: an agent requires $\Itotal$ bits to identify a solution and gains $\Istep$ bits per action at cost $\Cstep$, yielding an effective cost $\Ceff = (\Itotal/\Istep), \Cstep$ that predicts resource requirements before search. We prove that $\Ceff$ lower-bounds expected cost and provide tight probabilistic upper bounds. Experimental validation shows that ACP predictions closely track actual agent performance, consistently bounding search effort while improving efficiency over greedy and random strategies. The framework generalizes across LLM-based and agentic workflows, linking principles from active learning, Bayesian optimization, and reinforcement learning through a unified information-theoretic lens. \
- Abstract(参考訳): 自律エージェントはいつタスクにリソースをコミットすべきなのか?
本稿では,エージェントが資源制約の下で解決できるかどうかを予測するためのフレームワークであるエージェント能力問題(ACP)を紹介する。
a agent requires $\Itotal$ bits to identify a solution and gains $\Istep$ bits at cost $\Cstep$, yield a effective cost $\Ceff = (\Itotal/\Istep), \Cstep$ that predicts resource requirements before search。
我々は、$\Ceff$低いバウンドのコストを証明し、厳密な確率的上限を提供する。
実験による検証により、ACP予測は実際のエージェントのパフォーマンスを綿密に追跡し、探索努力を一貫して制限し、強欲な戦略やランダムな戦略よりも効率を向上することを示した。
このフレームワークは、LCMベースのエージェントワークフロー、アクティブラーニング、ベイズ最適化、強化学習の原則を統合情報理論レンズを通してリンクする。
名
関連論文リスト
- Learning to Lead: Incentivizing Strategic Agents in the Dark [50.93875404941184]
一般化プリンシパルエージェントモデルのオンライン学習バージョンについて検討する。
この挑戦的な設定のための最初の証明可能なサンプル効率アルゴリズムを開発した。
我々は、プリンシパルの最適ポリシーを学ぶために、ほぼ最適な $tildeO(sqrtT) $ regret bound を確立する。
論文 参考訳(メタデータ) (2025-06-10T04:25:04Z) - COALESCE: Economic and Security Dynamics of Skill-Based Task Outsourcing Among Team of Autonomous LLM Agents [0.0]
COALESCEは、自律型大規模言語モデル(LLM)エージェントが特定のサブタスクを、特殊で費用対効果の高いサードパーティのLCMエージェントにアウトソースできるように設計された、新しいフレームワークである。
239の理論的シミュレーションによる総合的な検証は41.8%のコスト削減の可能性を示している。
240の実際のLCMタスクにわたる大規模な実証検証により、適切なエプシロン-グレディー探索によって20.3%のコスト削減が確認された。
論文 参考訳(メタデータ) (2025-06-02T17:22:47Z) - Why Ask One When You Can Ask $k$? Learning-to-Defer to the Top-$k$ Experts [6.792743621449621]
我々は、Top-k$ Learning-to-Deferの最初のフレームワークを紹介します。
クエリを$k$のコスト効率の高いエンティティに割り当てる。
また、クエリ毎に最適な専門家数を学ぶ適応型変種であるTop-$k(x)$ Learning-to-Deferを提案する。
論文 参考訳(メタデータ) (2025-04-17T14:50:40Z) - Frugal inference for control [2.20480252274709]
人工知能の進歩の鍵となる課題は、外部の動きとリソース利用の適切なバランスを達成することである。
我々は,POMDPフレームワークのバージョンを開発し,推論によって得られた情報を,タスクのパフォーマンスや動作の労力とともに最適化する必要があるリソースとして扱う。
この研究は、脳と機械の両方が不確実性の下で効果的だが資源効率のよい制御に使用できる新しいタイプの有理計算の基礎を提供する。
論文 参考訳(メタデータ) (2024-06-20T15:50:38Z) - Scalable Online Exploration via Coverability [45.66375686120087]
探索は、特に関数近似を必要とする高次元領域において、強化学習において大きな課題である。
従来の探索手法を一般化し,3つの基本デシラタをサポートする新しい目的である$L_Coverageを導入する。
$L_Coverageは、カバー可能性の低いMDPにおけるオンライン(リワードフリーまたは報酬駆動)強化学習のための、最初の計算効率のよいモデルベースおよびモデルフリーのアルゴリズムを可能にする。
論文 参考訳(メタデータ) (2024-03-11T10:14:06Z) - Refined Sample Complexity for Markov Games with Independent Linear Function Approximation [49.5660193419984]
マルコフゲーム(MG)はマルチエージェント強化学習(MARL)の重要なモデルである
本稿では、WangらによるAVLPRフレームワークを改良し(2023年)、最適部分ギャップの悲観的推定を設計する。
マルチエージェントの呪いに取り組み、最適な$O(T-1/2)収束率を達成し、同時に$textpoly(A_max)$依存性を避ける最初のアルゴリズムを与える。
論文 参考訳(メタデータ) (2024-02-11T01:51:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - Exploration and Incentives in Reinforcement Learning [107.42240386544633]
各エージェントが同一(ただし未知)のMDPに直面する複雑な探索問題を考察する。
エージェントはポリシーの選択を制御するが、アルゴリズムは推奨事項のみを発行できる。
MDPのすべての到達可能な状態を探索するアルゴリズムを設計します。
論文 参考訳(メタデータ) (2021-02-28T00:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。