論文の概要: When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail
- arxiv url: http://arxiv.org/abs/2601.04748v1
- Date: Thu, 08 Jan 2026 09:14:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.12969
- Title: When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail
- Title(参考訳): スキルを持ったシングルエージェントがマルチエージェントシステムに取って代わる時と失敗する時
- Authors: Xiaoxiao Li,
- Abstract要約: マルチエージェントAIシステムは複雑な推論に有効であることが証明されている。
スキルのライブラリから選択した単一のエージェントで、同様のモジュラリティのメリットを達成できますか?
本研究では,スキル選択のスケーリング行動を調査し,印象的なパターンを観察する。
図書館のサイズだけでなく,類似のスキル間のセマンティック・コンフューザビリティが,この劣化に中心的な役割を果たしていることを示す。
- 参考スコア(独自算出の注目度): 40.69885101060645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent AI systems have proven effective for complex reasoning. These systems are compounded by specialized agents, which collaborate through explicit communication, but incur substantial computational overhead. A natural question arises: can we achieve similar modularity benefits with a single agent that selects from a library of skills? We explore this question by viewing skills as internalized agent behaviors. From this perspective, a multi-agent system can be compiled into an equivalent single-agent system, trading inter-agent communication for skill selection. Our preliminary experiments suggest this approach can substantially reduce token usage and latency while maintaining competitive accuracy on reasoning benchmarks. However, this efficiency raises a deeper question that has received little attention: how does skill selection scale as libraries grow? Drawing on principles from cognitive science, we propose that LLM skill selection exhibits bounded capacity analogous to human decision-making. We investigate the scaling behavior of skill selection and observe a striking pattern. Rather than degrading gradually, selection accuracy remains stable up to a critical library size, then drops sharply, indicating a phase transition reminiscent of capacity limits in human cognition. Furthermore, we find evidence that semantic confusability among similar skills, rather than library size alone, plays a central role in this degradation. This perspective suggests that hierarchical organization, which has long helped humans manage complex choices, may similarly benefit AI systems. Our initial results with hierarchical routing support this hypothesis. This work opens new questions about the fundamental limits of semantic-based skill selection in LLMs and offers a cognitive-grounded framework and practical guidelines for designing scalable skill-based agents.
- Abstract(参考訳): マルチエージェントAIシステムは複雑な推論に有効であることが証明されている。
これらのシステムは、明示的なコミュニケーションを通じて協調する特殊なエージェントによって合成されるが、かなりの計算オーバーヘッドが生じる。
スキルのライブラリから選択した1つのエージェントで、同様のモジュラリティのメリットを達成できますか?
我々は,この問題を内部化エージェントの行動として見ることによって探求する。
この観点から、マルチエージェントシステムは同等の単一エージェントシステムにコンパイルすることができ、スキル選択のためのエージェント間通信を交換することができる。
予備実験により,提案手法は推論ベンチマークにおける競合精度を維持しつつ,トークン使用率と遅延を大幅に低減できることが示された。
しかし、この効率性は、ライブラリが成長するにつれて、スキル選択がスケールするかという、ほとんど注目されていない深い疑問を提起する。
認知科学の原理に基づいて,LLMのスキル選択は人間の意思決定に類似した有界能力を示すことを提案する。
本研究では,スキル選択のスケーリング行動を調査し,印象的なパターンを観察する。
徐々に劣化するのではなく、選択精度は重要なライブラリサイズまで安定し、その後急降下し、人間の認知における容量制限を想起させる相転移を示す。
さらに,図書館の規模だけでなく,類似のスキル間のセマンティック・コンフューザビリティが,この劣化に中心的な役割を果たしていることを示す。
この視点は、人間が複雑な選択を管理するのを長年助けてきた階層的な組織が、同様にAIシステムに利益をもたらすことを示唆している。
階層的ルーティングによる最初の結果は、この仮説を支持します。
この研究は、LLMにおけるセマンティックベースのスキル選択の基本的な限界に関する新しい質問を開き、スケーラブルなスキルベースエージェントを設計するための認知基盤フレームワークと実践的ガイドラインを提供する。
関連論文リスト
- Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - Is the `Agent' Paradigm a Limiting Framework for Next-Generation Intelligent Systems? [0.0]
エージェント」の概念は人工知能(AI)の研究を深く形作っている。
本稿では,エージェント中心パラダイムの必要性と最適性を再評価する。
論文 参考訳(メタデータ) (2025-09-13T16:11:27Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Kolb-Based Experiential Learning for Generalist Agents with Human-Level Kaggle Data Science Performance [81.05882480184587]
本稿では,自律エージェントに対するVygotskyのZPDを用いて,Kolbの学習サイクルの計算フレームワークを提案する。
Agent Kは、KolbとVygotskyにインスパイアされた人間の認知学習をうまく統合する第1のAIシステムである。
金9個、銀8個、銅12個で、メダル獲得競争で金4個、銀4個を含む。エージェントKは、コルブとヴィーゴツキーにインスパイアされた人間の認知学習をうまく統合する第1のAIシステムである。
論文 参考訳(メタデータ) (2024-11-05T23:55:23Z) - Inverse Factorized Q-Learning for Cooperative Multi-agent Imitation
Learning [13.060023718506917]
模倣学習(英: mimicion learning, IL)は、協調型マルチエージェントシステムにおける実証から専門家の行動を模倣する学習の課題である。
本稿では,これらの課題に対処する新しいマルチエージェントILアルゴリズムを提案する。
本手法は,分散Q関数の集約に混在するネットワークを活用することで,集中学習を実現する。
論文 参考訳(メタデータ) (2023-10-10T17:11:20Z) - Priors, Hierarchy, and Information Asymmetry for Skill Transfer in
Reinforcement Learning [18.865535706610522]
情報非対称性によって制御される逐次的タスク間のスキルの重要表現性と伝達可能性のトレードオフを示す。
表現力・伝達性スキル(APES)の注意事項について紹介する。
既存のアプローチとは異なり、APESはデータ駆動のドメイン依存的な方法で学習することで非対称性の選択を自動化する。
論文 参考訳(メタデータ) (2022-01-20T11:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。