論文の概要: The Agent Capability Problem: Predicting Solvability Through Information-Theoretic Bounds
- arxiv url: http://arxiv.org/abs/2512.07631v1
- Date: Mon, 08 Dec 2025 15:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.943694
- Title: The Agent Capability Problem: Predicting Solvability Through Information-Theoretic Bounds
- Title(参考訳): エージェント能力問題:情報理論境界による解決可能性予測
- Authors: Shahar Lutati,
- Abstract要約: 本稿では,エージェントが資源制約の下で解決できるかどうかを予測するためのフレームワークであるエージェント能力問題(ACP)を紹介する。
我々は、$Ceff$低バウンドが期待されるコストと、厳密な確率的上限を提供することを証明した。
ACPの予測は、実際のエージェントのパフォーマンスを密に追跡し、探索努力を一貫して制限し、欲求やランダムな戦略よりも効率を向上することを示す。
- 参考スコア(独自算出の注目度): 5.85480332059272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When should an autonomous agent commit resources to a task? We introduce the Agent Capability Problem (ACP), a framework for predicting whether an agent can solve a problem under resource constraints. Rather than relying on empirical heuristics, ACP frames problem-solving as information acquisition: an agent requires $\Itotal$ bits to identify a solution and gains $\Istep$ bits per action at cost $\Cstep$, yielding an effective cost $\Ceff = (\Itotal/\Istep), \Cstep$ that predicts resource requirements before search. We prove that $\Ceff$ lower-bounds expected cost and provide tight probabilistic upper bounds. Experimental validation shows that ACP predictions closely track actual agent performance, consistently bounding search effort while improving efficiency over greedy and random strategies. The framework generalizes across LLM-based and agentic workflows, linking principles from active learning, Bayesian optimization, and reinforcement learning through a unified information-theoretic lens. \
- Abstract(参考訳): 自律エージェントはいつタスクにリソースをコミットすべきなのか?
本稿では,エージェントが資源制約の下で解決できるかどうかを予測するためのフレームワークであるエージェント能力問題(ACP)を紹介する。
a agent requires $\Itotal$ bits to identify a solution and gains $\Istep$ bits at cost $\Cstep$, yield a effective cost $\Ceff = (\Itotal/\Istep), \Cstep$ that predicts resource requirements before search。
我々は、$\Ceff$低いバウンドのコストを証明し、厳密な確率的上限を提供する。
実験による検証により、ACP予測は実際のエージェントのパフォーマンスを綿密に追跡し、探索努力を一貫して制限し、強欲な戦略やランダムな戦略よりも効率を向上することを示した。
このフレームワークは、LCMベースのエージェントワークフロー、アクティブラーニング、ベイズ最適化、強化学習の原則を統合情報理論レンズを通してリンクする。
名
関連論文リスト
- Almost Asymptotically Optimal Active Clustering Through Pairwise Observations [59.20614082241528]
そこで本研究では, ノイズと能動的に収集された応答を用いて, M$アイテムを未知数の$K$個別グループにクラスタリングするための新しい分析フレームワークを提案する。
クラスタリングの精度に対する望ましい信頼性を達成するのに必要なクエリ数の基本的下位境界を確立する。
我々は、一般化された同値比統計の計算可能な変種を開発し、その下限に対する性能ギャップを正確に推定できることを実証的に示す。
論文 参考訳(メタデータ) (2026-02-05T14:16:47Z) - Phase Transition for Budgeted Multi-Agent Synergy [41.486076708302456]
マルチエージェントシステムは信頼性を向上させることができるが、固定された推論予算の下では、しばしば役立つか、飽和するか、崩壊するかさえある。
我々は、現代のエージェントスタックの3つの束縛制約からこれらの状態を予測する最小限の校正可能な理論を開発する。
論文 参考訳(メタデータ) (2026-01-24T05:32:50Z) - Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - Mechanism-Based Intelligence (MBI): Differentiable Incentives for Rational Coordination and Guaranteed Alignment in Multi-Agent Systems [0.0]
メカニズムベースインテリジェンス(MBI: Mechanism-Based Intelligence)は,複数の「脳」の協調からインテリジェンスを再認識するパラダイムである。
経済原理に基づく協調的で信頼性が高くスケーラブルなマルチエージェントインテリジェンスに対して、証明可能な効率、監査可能、一般化可能なアプローチを提供する。
論文 参考訳(メタデータ) (2025-12-22T22:22:13Z) - AgentAsk: Multi-Agent Systems Need to Ask [26.13279490836716]
大規模言語モデル(LLM)上に構築されたマルチエージェントシステムは、協調的な分業による問題解決能力の向上を約束する。
我々はAgentAskを提案する。AgentAskは軽量でプラグ・アンド・プレイの明確化モジュールで、すべてのエージェント間メッセージを潜在的な障害点として扱い、エラーの伝播を抑えるのに必要最小限の質問を挿入する。
AgentAskは、公開マルチエージェント実装の精度と堅牢性を継続的に改善し、オーバーヘッドを最小限に抑え、レイテンシと余分なコストを5%以下に抑える。
論文 参考訳(メタデータ) (2025-10-08T22:36:05Z) - Learning to Lead: Incentivizing Strategic Agents in the Dark [50.93875404941184]
一般化プリンシパルエージェントモデルのオンライン学習バージョンについて検討する。
この挑戦的な設定のための最初の証明可能なサンプル効率アルゴリズムを開発した。
我々は、プリンシパルの最適ポリシーを学ぶために、ほぼ最適な $tildeO(sqrtT) $ regret bound を確立する。
論文 参考訳(メタデータ) (2025-06-10T04:25:04Z) - COALESCE: Economic and Security Dynamics of Skill-Based Task Outsourcing Among Team of Autonomous LLM Agents [0.0]
COALESCEは、自律型大規模言語モデル(LLM)エージェントが特定のサブタスクを、特殊で費用対効果の高いサードパーティのLCMエージェントにアウトソースできるように設計された、新しいフレームワークである。
239の理論的シミュレーションによる総合的な検証は41.8%のコスト削減の可能性を示している。
240の実際のLCMタスクにわたる大規模な実証検証により、適切なエプシロン-グレディー探索によって20.3%のコスト削減が確認された。
論文 参考訳(メタデータ) (2025-06-02T17:22:47Z) - Why Ask One When You Can Ask $k$? Learning-to-Defer to the Top-$k$ Experts [6.792743621449621]
我々は、Top-k$ Learning-to-Deferの最初のフレームワークを紹介します。
クエリを$k$のコスト効率の高いエンティティに割り当てる。
また、クエリ毎に最適な専門家数を学ぶ適応型変種であるTop-$k(x)$ Learning-to-Deferを提案する。
論文 参考訳(メタデータ) (2025-04-17T14:50:40Z) - Metareasoning in uncertain environments: a meta-BAMDP framework [1.0923877073891441]
正しい$P$を見つけることは、推論プロセスの空間上の最適化問題として表すことができる。
本稿では,未知の報酬/遷移分布を持つ環境におけるメタ推論を扱うメタベイズ適応型MDPフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T13:15:01Z) - Frugal inference for control [2.20480252274709]
人工知能の進歩の鍵となる課題は、外部の動きとリソース利用の適切なバランスを達成することである。
我々は,POMDPフレームワークのバージョンを開発し,推論によって得られた情報を,タスクのパフォーマンスや動作の労力とともに最適化する必要があるリソースとして扱う。
この研究は、脳と機械の両方が不確実性の下で効果的だが資源効率のよい制御に使用できる新しいタイプの有理計算の基礎を提供する。
論文 参考訳(メタデータ) (2024-06-20T15:50:38Z) - Scalable Online Exploration via Coverability [45.66375686120087]
探索は、特に関数近似を必要とする高次元領域において、強化学習において大きな課題である。
従来の探索手法を一般化し,3つの基本デシラタをサポートする新しい目的である$L_Coverageを導入する。
$L_Coverageは、カバー可能性の低いMDPにおけるオンライン(リワードフリーまたは報酬駆動)強化学習のための、最初の計算効率のよいモデルベースおよびモデルフリーのアルゴリズムを可能にする。
論文 参考訳(メタデータ) (2024-03-11T10:14:06Z) - Refined Sample Complexity for Markov Games with Independent Linear Function Approximation [49.5660193419984]
マルコフゲーム(MG)はマルチエージェント強化学習(MARL)の重要なモデルである
本稿では、WangらによるAVLPRフレームワークを改良し(2023年)、最適部分ギャップの悲観的推定を設計する。
マルチエージェントの呪いに取り組み、最適な$O(T-1/2)収束率を達成し、同時に$textpoly(A_max)$依存性を避ける最初のアルゴリズムを与える。
論文 参考訳(メタデータ) (2024-02-11T01:51:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - Exploration and Incentives in Reinforcement Learning [107.42240386544633]
各エージェントが同一(ただし未知)のMDPに直面する複雑な探索問題を考察する。
エージェントはポリシーの選択を制御するが、アルゴリズムは推奨事項のみを発行できる。
MDPのすべての到達可能な状態を探索するアルゴリズムを設計します。
論文 参考訳(メタデータ) (2021-02-28T00:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。