論文の概要: MASLab: A Unified and Comprehensive Codebase for LLM-based Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2505.16988v1
- Date: Thu, 22 May 2025 17:54:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.533754
- Title: MASLab: A Unified and Comprehensive Codebase for LLM-based Multi-Agent Systems
- Title(参考訳): MASLab: LLMベースのマルチエージェントシステムのための統一的で総合的なコードベース
- Authors: Rui Ye, Keduan Huang, Qimin Wu, Yuzhu Cai, Tian Jin, Xianghe Pang, Xiangrui Liu, Jiaqi Su, Chen Qian, Bohan Tang, Kaiqu Liang, Jiaao Chen, Yue Hu, Zhenfei Yin, Rongye Shi, Bo An, Yang Gao, Wenjun Wu, Lei Bai, Siheng Chen,
- Abstract要約: 我々は,LLMベースのMASに対して,統一的で包括的で,研究に優しいMASLabを紹介する。
MASLabは複数のドメインにまたがる20以上の確立されたメソッドを統合する。
MASLab上に構築され、10以上のベンチマークと8つのモデルをカバーする広範な実験を行い、MAS手法の現在の状況を明確にかつ包括的なビューを提供する。
- 参考スコア(独自算出の注目度): 67.19373195448561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based multi-agent systems (MAS) have demonstrated significant potential in enhancing single LLMs to address complex and diverse tasks in practical applications. Despite considerable advancements, the field lacks a unified codebase that consolidates existing methods, resulting in redundant re-implementation efforts, unfair comparisons, and high entry barriers for researchers. To address these challenges, we introduce MASLab, a unified, comprehensive, and research-friendly codebase for LLM-based MAS. (1) MASLab integrates over 20 established methods across multiple domains, each rigorously validated by comparing step-by-step outputs with its official implementation. (2) MASLab provides a unified environment with various benchmarks for fair comparisons among methods, ensuring consistent inputs and standardized evaluation protocols. (3) MASLab implements methods within a shared streamlined structure, lowering the barriers for understanding and extension. Building on MASLab, we conduct extensive experiments covering 10+ benchmarks and 8 models, offering researchers a clear and comprehensive view of the current landscape of MAS methods. MASLab will continue to evolve, tracking the latest developments in the field, and invite contributions from the broader open-source community.
- Abstract(参考訳): LLMベースのマルチエージェントシステム(MAS)は、実用上の複雑な多様なタスクに対処するために単一のLLMを拡張する大きな可能性を示している。
かなりの進歩にもかかわらず、この分野には既存の手法を統合する統一コードベースが欠けており、結果として冗長な再実装の努力、不公平な比較、研究者の参入障壁も高い。
これらの課題に対処するために、LLMベースのMASのための統一的で包括的で研究にやさしいコードベースであるMASLabを紹介する。
1)MASLabは、複数のドメインにまたがる20以上の確立されたメソッドを統合し、ステップバイステップのアウトプットと公式実装を比較して厳格に検証する。
2) MASLabは、メソッド間の公正な比較のための様々なベンチマークと統一された環境を提供し、一貫した入力と標準化された評価プロトコルを保証します。
(3) MASLabは共有の合理化構造内にメソッドを実装し、理解と拡張の障壁を低くする。
MASLab上に構築され、10以上のベンチマークと8つのモデルをカバーする広範な実験を行い、MAS手法の現在の状況を明確にかつ包括的なビューを提供する。
MASLabは今後も進化を続け、この分野の最新展開を追跡し、幅広いオープンソースコミュニティからのコントリビューションを募集する。
関連論文リスト
- X-MAS: Towards Building Multi-Agent Systems with Heterogeneous LLMs [38.8226073406788]
異種LLM駆動型マルチエージェントシステム(MAS)のパラダイムについて検討する。
X-MAS-Benchは、異なるドメインにわたる様々なLLMの性能とMAS関連の機能を評価するために設計された総合的なテストベッドである。
均質なMASから異質なMASへの移行は構造的再設計を必要とせずにシステム性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:56:39Z) - Why Do Multi-Agent LLM Systems Fail? [91.39266556855513]
MAST(Multi-Agent System Failure taxonomy, MAST)は,MASの故障を理解するために考案された分類法である。
我々は、200以上のタスクにまたがる7つの人気のあるMASフレームワークを分析し、6つの専門家のアノテータを含む。
14のユニークな障害モードを特定し、(i)仕様問題、(ii)エージェント間ミスアライメント、(iii)タスク検証の3つに分類した。
論文 参考訳(メタデータ) (2025-03-17T19:04:38Z) - MAS-GPT: Training LLMs to Build LLM-based Multi-Agent Systems [43.41902313944615]
我々は、MASを生成言語タスクとして再定義することで、MASを構築するプロセスを簡単にする。
一貫性のあるクエリ-MASペアからなる高品質なデータセットを作成する。
生成されたMASは、ユーザクエリをシームレスに処理し、高品質なレスポンスを提供する。
論文 参考訳(メタデータ) (2025-03-05T17:27:59Z) - Collab-Overcooked: Benchmarking and Evaluating Large Language Models as Collaborative Agents [16.422314548224147]
大規模言語モデル(LLM)ベースのエージェントシステムは、従来のNLPタスクを超えて、現実世界のアプリケーションにおいて大きな進歩を遂げてきた。
本稿では,インタラクティブ環境において,より適用性が高く,課題の多いOvercooked-AIゲーム上に構築された新しいベンチマークであるCollab-Overcookedを提案する。
論文 参考訳(メタデータ) (2025-02-27T13:31:13Z) - When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - FedMLLM: Federated Fine-tuning MLLM on Multimodal Heterogeneity Data [56.08867996209236]
フェデレートラーニング(FL)による微調整型マルチモーダル大言語モデル(MLLM)は、プライベートデータソースを含めることで、トレーニングデータの範囲を拡大することができる。
マルチモーダルな異種シナリオにおけるMLLMのファインチューニング性能を評価するためのベンチマークを提案する。
従来のFL手法を2つのモダリティに依存しない戦略と組み合わせた一般的なFedMLLMフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-22T04:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。