論文の概要: Know the Ropes: A Heuristic Strategy for LLM-based Multi-Agent System Design
- arxiv url: http://arxiv.org/abs/2505.16979v1
- Date: Thu, 22 May 2025 17:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.525243
- Title: Know the Ropes: A Heuristic Strategy for LLM-based Multi-Agent System Design
- Title(参考訳): ロープを知る: LLMに基づくマルチエージェントシステム設計のためのヒューリスティック戦略
- Authors: Zhenkun Li, Lingyao Li, Shuhang Lin, Yongfeng Zhang,
- Abstract要約: Know-The-Ropesは、ドメインの優先順位をアルゴリズムの青写真階層に変換するフレームワークである。
3つのGPT-4o-miniエージェントは、1つのボトルネックエージェントをパッチした後、サイズ5のインスタンスで3%ゼロショットから95%に精度を上げる。
- 参考スコア(独自算出の注目度): 27.246783209927464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-agent LLMs hit hard limits--finite context, role overload, and brittle domain transfer. Conventional multi-agent fixes soften those edges yet expose fresh pains: ill-posed decompositions, fuzzy contracts, and verification overhead that blunts the gains. We therefore present Know-The-Ropes (KtR), a framework that converts domain priors into an algorithmic blueprint hierarchy, in which tasks are recursively split into typed, controller-mediated subtasks, each solved zero-shot or with the lightest viable boost (e.g., chain-of-thought, micro-tune, self-check). Grounded in the No-Free-Lunch theorem, KtR trades the chase for a universal prompt for disciplined decomposition. On the Knapsack problem (3-8 items), three GPT-4o-mini agents raise accuracy from 3% zero-shot to 95% on size-5 instances after patching a single bottleneck agent. On the tougher Task-Assignment problem (6-15 jobs), a six-agent o3-mini blueprint hits 100% up to size 10 and 84% on sizes 13-15, versus 11% zero-shot. Algorithm-aware decomposition plus targeted augmentation thus turns modest models into reliable collaborators--no ever-larger monoliths required.
- Abstract(参考訳): 単一エージェントのLLMは、一定のコンテキスト、ロールオーバーロード、不安定なドメイン転送といった厳しい制限にぶつかった。
従来のマルチエージェント修正は、エッジをソフトにしますが、不適切な分解、ファジィコントラクト、検証オーバーヘッドなど、新たな苦痛を露呈します。
そこで我々は,ドメインの優先順位をアルゴリズム的青写真階層に変換するフレームワークであるKnow-The-Ropes(KtR)を提案する。
ノー・フリー・ランチの定理(No-Free-Lunch theorem)に基づいて、KtRは、規律ある分解のための普遍的なプロンプトの追跡を交換する。
クナプサック問題(3-8項目)では、3つのGPT-4o-miniエージェントが1つのボトルネックエージェントをパッチした後、サイズ5のインスタンスで3%ゼロショットから95%まで精度を高める。
より厳しいタスク割り当て問題(6~15ジョブ)では、O3ミニの6つの青写真が、サイズ13~15で100%、サイズ84%に達するのに対して、ゼロショットは11%である。
アルゴリズムを意識した分解とターゲット拡張により、モデストモデルは信頼性の高いコラボレータへと変換される。
関連論文リスト
- Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems [50.29939179830491]
LLMマルチエージェントシステムにおける障害帰属は、まだ調査が過小評価されており、労働集約的である。
本稿では,3つの自動故障帰属手法の開発と評価を行い,その欠点と欠点を要約する。
最良の方法は、障害に応答するエージェントを特定する際に53.5%の精度を達成するが、故障の特定には14.2%しか役に立たない。
論文 参考訳(メタデータ) (2025-04-30T23:09:44Z) - LLMSR@XLLM25: Less is More: Enhancing Structured Multi-Agent Reasoning via Quality-Guided Distillation [6.920352059545929]
本稿では,LLMSR@XLLM25構造推論タスクにおける3位獲得手法であるLess is Moreを提案する。
提案手法は,逆プロンプト誘導,GPT-4oによる検索拡張推論合成,二段階報酬誘導フィルタリングを用いたマルチエージェントフレームワークを活用する。
全てのモジュールはメタラマ-3-8B-インストラクトからLoRA+を統一した構成で微調整される。
論文 参考訳(メタデータ) (2025-04-23T04:19:52Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - MAgICoRe: Multi-Agent, Iterative, Coarse-to-Fine Refinement for Reasoning [60.55556283848063]
大規模言語モデル(LLM)推論は、テストタイムアグリゲーション戦略、すなわち、複数のサンプルを生成し、生成されたサンプル間で投票することで改善することができる。
Refinementは、LLM生成したフィードバックを使ってソリューションの品質を改善する方法を提供する。
本稿では,問題の難易度を,難易度や難易度に分類することで,過度な改善を回避するMagICoReを提案する。
論文 参考訳(メタデータ) (2024-09-18T17:12:41Z) - Octo-planner: On-device Language Model for Planner-Action Agents [19.627197141903505]
Planner-Actionフレームワークは、計画とアクションの実行を2つの異なるコンポーネントに分離する。
Agentはまず、タスクをサブステップのシーケンスに分解してユーザクエリに応答し、アクションエージェントによって実行される。
我々は、文脈内学習の代わりにモデル微調整を採用し、計算コストとエネルギー消費を削減した。
論文 参考訳(メタデータ) (2024-06-26T05:40:10Z) - Segment, Select, Correct: A Framework for Weakly-Supervised Referring Segmentation [63.13635858586001]
参照画像(RIS)は、自然言語文を通して画像中の物体を識別する問題である。
本稿では、RISを3つのステップに分解することで、RISに対処する弱い教師付きフレームワークを提案する。
最初の2ステップ(ゼロショットセグメントとセレクト)のみを使用して、他のゼロショットベースラインを最大16.5%上回る。
論文 参考訳(メタデータ) (2023-10-20T13:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。