論文の概要: Meta-Design Matters: A Self-Design Multi-Agent System
- arxiv url: http://arxiv.org/abs/2505.14996v1
- Date: Wed, 21 May 2025 00:56:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.80151
- Title: Meta-Design Matters: A Self-Design Multi-Agent System
- Title(参考訳): メタデザイン: 自己設計型マルチエージェントシステム
- Authors: Zixuan Ke, Austin Xu, Yifei Ming, Xuan-Phi Nguyen, Caiming Xiong, Shafiq Joty,
- Abstract要約: 大規模言語モデル(LLM)の印象的な機能を活用するマルチエージェントシステム(MAS)は、複雑なタスクに対処する大きな可能性を秘めている。
現在、ほとんどのMASは手動で設計されたエージェントロールと通信プロトコルに依存している。
自動MAS設計のための自己教師型推論時間専用フレームワークSELF-MASを紹介する。
- 参考スコア(独自算出の注目度): 76.42361936804313
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Multi-agent systems (MAS) leveraging the impressive capabilities of Large Language Models (LLMs) hold significant potential for tackling complex tasks. However, most current MAS depend on manually designed agent roles and communication protocols. These manual designs often fail to align with the underlying LLMs' strengths and struggle to adapt to novel tasks. Recent automatic MAS approaches attempt to mitigate these limitations but typically necessitate a validation-set for tuning and yield static MAS designs lacking adaptability during inference. We introduce SELF-MAS, the first self-supervised, inference-time only framework for automatic MAS design. SELF-MAS employs meta-level design to iteratively generate, evaluate, and refine MAS configurations tailored to each problem instance, without requiring a validation set. Critically, it enables dynamic agent composition and problem decomposition through meta-feedback on solvability and completeness. Experiments across math, graduate-level QA, and software engineering benchmarks, using both closed-source and open-source LLM back-bones of varying sizes, demonstrate that SELF-MAS outperforms both manual and automatic MAS baselines, achieving a 7.44% average accuracy improvement over the next strongest baseline while maintaining cost-efficiency. These findings underscore the promise of meta-level self-supervised design for creating effective and adaptive MAS.
- Abstract(参考訳): 大規模言語モデル(LLM)の印象的な機能を活用するマルチエージェントシステム(MAS)は、複雑なタスクに対処する大きな可能性を秘めている。
しかし、現在のMASは手動で設計されたエージェントロールと通信プロトコルに依存している。
これらの手動設計は、基礎となるLLMの強みと一致せず、新しいタスクに適応するのに苦労することが多い。
最近の自動MAS手法は、これらの制限を緩和しようとするが、通常、推論中に適応性に欠ける静的MAS設計のチューニングと出力のための検証セットを必要とする。
自動MAS設計のための自己教師型推論時唯一のフレームワークであるSELF-MASを紹介する。
SELF-MASは、検証セットを必要とせず、各問題インスタンスに適したMAS構成を反復的に生成、評価、洗練するためにメタレベル設計を採用する。
批判的に言えば、メタフィードバックによる動的エージェント合成と問題分解が可解性と完全性に対して可能である。
数学、大学院レベルのQA、ソフトウェアエンジニアリングのベンチマークにおいて、さまざまなサイズのオープンソースLLMバックボーンを使用して、SELF-MASが手動と自動MASベースラインの両方より優れており、次の最強ベースラインよりも平均精度が7.44%向上し、コスト効率が維持されていることを実証している。
これらの知見は, メタレベルの自己教師型設計が効果的かつ適応的なMASを創出するための可能性を裏付けるものである。
関連論文リスト
- MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Nexus: A Lightweight and Scalable Multi-Agent Framework for Complex Tasks Automation [0.6560382312183772]
マルチエージェントシステム(MAS)を簡単に構築および管理できるように設計されたPythonフレームワークであるNexusを紹介します。
ここでは,Nexus駆動のMASがHumanEvalで99%,VerilogEval-Humanで100%であることを示す。
これらのアーキテクチャは、複雑な推論と数学的問題解決において堅牢な習熟度を示す。
論文 参考訳(メタデータ) (2025-02-26T12:37:47Z) - IMPROVE: Iterative Model Pipeline Refinement and Optimization Leveraging LLM Agents [17.301758094000125]
大規模言語モデル(LLM)エージェントは、コンピュータビジョンモデルの開発を自動化するための有望なソリューションとして登場した。
LLM駆動のMLパイプライン設計のための新しい戦略であるIterative Refinementを導入する。
イテレーティブリファインメントは安定性、解釈可能性、全体的なモデルパフォーマンスを改善します。
論文 参考訳(メタデータ) (2025-02-25T01:52:37Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Transformer-Squared: Self-adaptive LLMs [29.1326358746118]
そこで我々はTransformer-Squaredという新しい自己適応フレームワークを紹介した。
提案手法は,LoRAなどのユビキタスな手法よりもパラメータが少なく,効率も向上する。
Transformer-Squaredは、LLMの適応性とタスク固有のパフォーマンスを向上させる、スケーラブルで効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-01-09T01:19:21Z) - AgentPS: Agentic Process Supervision for Multi-modal Content Quality Assurance through Multi-round QA [9.450927573476822]
textitAgentPSは、エージェントプロセススーパービジョンをMLLMに統合する新しいフレームワークである。
textitAgentPSは、プロプライエタリなTikTokデータセット上でのベースラインMLLMよりも大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-12-15T04:58:00Z) - MaCTG: Multi-Agent Collaborative Thought Graph for Automatic Programming [10.461509044478278]
MaCTG (MultiAgent Collaborative Thought Graph) は動的グラフ構造を用いる新しいマルチエージェントフレームワークである。
プログラム要求に基づいてエージェントロールを自律的に割り当て、タスクの分散を動的に洗練し、プロジェクトレベルのコードを体系的に検証し統合する。
MaCTGは既存のマルチエージェントフレームワークと比較して運用コストを89.09%削減した。
論文 参考訳(メタデータ) (2024-10-25T01:52:15Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。