論文の概要: AI Agents with Human-Like Collaborative Tools: Adaptive Strategies for Enhanced Problem-Solving
- arxiv url: http://arxiv.org/abs/2509.13547v1
- Date: Tue, 16 Sep 2025 21:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.656585
- Title: AI Agents with Human-Like Collaborative Tools: Adaptive Strategies for Enhanced Problem-Solving
- Title(参考訳): ヒューマンライクなコラボレーションツールを備えたAIエージェント:問題解決のための適応的戦略
- Authors: Harper Reed, Michael Sugimura, Angelo Zangari,
- Abstract要約: 私たちはClaude CodeエージェントにMPPベースのソーシャルメディアとジャーナリングツールを装備し、適合していると思われるツールを使用できるようにします。
34人以上のAider Polyglot Pythonプログラミングの課題、コラボレーションツールは、最も難しい問題のパフォーマンスを大幅に改善します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate whether giving LLM agents the collaborative tools and autonomy that humans naturally use for problem solving can improve their performance. We equip Claude Code agents with MCP-based social media and journaling tools and allow them to use these tools as they see fit. Across 34 Aider Polyglot Python programming challenges, collaborative tools substantially improve performance on the hardest problems, delivering 15-40% lower cost, 12-27% fewer turns, and 12-38% faster completion than baseline agents. Effects on the full challenge set are mixed, suggesting these tools act as performance enhancers when additional reasoning scaffolding is most needed. Surprisingly, Different models naturally adopted distinct collaborative strategies without explicit instruction. Sonnet 3.7 engaged broadly across tools and benefited from articulation-based cognitive scaffolding. Sonnet 4 showed selective adoption, leaning on journal-based semantic search when problems were genuinely difficult. This mirrors how human developers adjust collaboration based on expertise and task complexity. Behavioral analysis shows agents prefer writing over reading by about 2-9x, indicating that structured articulation drives much of the improvement rather than information access alone. Overall, AI agents can systematically benefit from human-inspired collaboration tools at the edge of their capabilities, pointing to adaptive collaborative interfaces as reasoning enhancers rather than universal efficiency boosts.
- Abstract(参考訳): 我々は,LLMエージェントに,人間が自然に問題解決に使用する協調ツールと自律性を与えることによって,その性能が向上するかどうかを検討する。
私たちはClaude CodeエージェントにMPPベースのソーシャルメディアとジャーナリングツールを装備し、適合していると思われるツールを使用できるようにします。
34以上のAider Polyglot Pythonプログラミングの課題に対して、コラボレーションツールは最も難しい問題のパフォーマンスを大幅に改善し、コストを15~40%削減し、ターンを12~27%削減し、ベースラインエージェントよりも12~38%高速化した。
完全な課題セットへの影響はさまざまであり、追加の推論足場が必要な場合には、これらのツールがパフォーマンス向上剤として機能することを示唆している。
驚くべきことに、異なるモデルは明示的な指示なしに、自然に異なる協調戦略を採用した。
Sonnet 3.7 は幅広いツールにまたがって動作し、調音に基づく認知的足場から恩恵を受けた。
Sonnet 4は、真に難しい問題に対して、ジャーナルベースのセマンティックサーチに頼って、選択的に採用されている。
これは、人間の開発者が専門知識とタスクの複雑さに基づいてコラボレーションを調整する方法を反映している。
行動分析は、エージェントが読み書きよりも2~9倍の読み書きを好むことを示している。
全体として、AIエージェントは、人間にインスパイアされたコラボレーションツールから、能力の端にある体系的に恩恵を受けることができる。
関連論文リスト
- SE-Agent: Self-Evolution Trajectory Optimization in Multi-Step Reasoning with LLM-Based Agents [32.76299758137446]
大規模言語モデル(LLM)ベースのエージェントは、最近、複雑な推論とツールの使用において、環境とのマルチステップのインタラクションを通じて印象的な機能を示した。
これらの軌道にはリッチなフィードバックが含まれており、エージェントを正しい方向に誘導して問題を正しく解くことができる。
モンテカルロ木探索 (MCTS) のような一般的な手法は、探索と搾取を効果的にバランスさせることができるが、それらは様々な軌道間の相互依存を無視している。
エージェントが推論プロセスを反復的に最適化できる自己進化フレームワークSE-Agentを提案する。
論文 参考訳(メタデータ) (2025-08-04T05:51:55Z) - Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents [44.34340798542]
大きな言語モデル(LLM)は、複雑な推論を必要とする自然言語タスクにおいて顕著な能力を示している。
静的データセットに対する従来の教師付き事前トレーニングは、自律的なエージェント機能を実現するには不十分である。
本稿では,モンテカルロ木探索(MCTS)を自己批判機構と組み合わせ,エージェント間相互作用を反復的に微調整するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T20:52:13Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。