論文の概要: MALLM: Multi-Agent Large Language Models Framework
- arxiv url: http://arxiv.org/abs/2509.11656v1
- Date: Mon, 15 Sep 2025 07:48:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.186177
- Title: MALLM: Multi-Agent Large Language Models Framework
- Title(参考訳): MALLM: マルチエージェントな大規模言語モデルフレームワーク
- Authors: Jonas Becker, Lars Benedikt Kaesberg, Niklas Bauer, Jan Philip Wahle, Terry Ruas, Bela Gipp,
- Abstract要約: MALLM(Multi-Agent Large Language Models)は,MADコンポーネントの体系的解析を可能にするオープンソースフレームワークである。
MALLMは、エージェントペルソナ(例えば、エキスパート、パーソナリティ)、応答ジェネレータ(例えば、クリティカル、リ推論)、議論パラダイム(例えば、メモリ、リレー)、決定プロトコル(例えば、投票、合意)を含む144以上のMADのユニークな構成を提供する。
MALLMは研究者向けに調整されており、多エージェントの議論の中心の窓口を提供し、その構成要素とその相互作用の理解を促進する。
- 参考スコア(独自算出の注目度): 11.142842314744586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent debate (MAD) has demonstrated the ability to augment collective intelligence by scaling test-time compute and leveraging expertise. Current frameworks for multi-agent debate are often designed towards tool use, lack integrated evaluation, or provide limited configurability of agent personas, response generators, discussion paradigms, and decision protocols. We introduce MALLM (Multi-Agent Large Language Models), an open-source framework that enables systematic analysis of MAD components. MALLM offers more than 144 unique configurations of MAD, including (1) agent personas (e.g., Expert, Personality), (2) response generators (e.g., Critical, Reasoning), (3) discussion paradigms (e.g., Memory, Relay), and (4) decision protocols (e.g., Voting, Consensus). MALLM uses simple configuration files to define a debate. Furthermore, MALLM can load any textual Huggingface dataset (e.g., MMLU-Pro, WinoGrande) and provides an evaluation pipeline for easy comparison of MAD configurations. MALLM is tailored towards researchers and provides a window into the heart of multi-agent debate, facilitating the understanding of its components and their interplay.
- Abstract(参考訳): マルチエージェントディベート(MAD)は、テストタイムの計算をスケールし、専門知識を活用することで、集合的インテリジェンスを強化する能力を示した。
現在のマルチエージェントの議論のためのフレームワークは、ツールの使用、統合された評価の欠如、エージェントのペルソナ、応答ジェネレータ、議論のパラダイム、決定プロトコルの設定性に制限があるように設計されている。
MALLM(Multi-Agent Large Language Models)は,MADコンポーネントの体系的解析を可能にするオープンソースフレームワークである。
MALLMは、(1)エージェントペルソナ(eg, Expert, Personality)、(2)応答ジェネレータ(eg, critical, Reasoning)、(3)議論パラダイム(eg, Memory, Relay)、(4)決定プロトコル(eg, Voting, Consensus)を含む144以上のMADのユニークな構成を提供する。
MALLMは単純な設定ファイルを使って議論を定義する。
さらに、MALLMは任意のテキストHuggingfaceデータセット(例えば、MMLU-Pro、WinoGrande)をロードし、MAD構成を簡単に比較するための評価パイプラインを提供する。
MALLMは研究者向けに調整されており、多エージェントの議論の中心の窓口を提供し、その構成要素とその相互作用の理解を促進する。
関連論文リスト
- RAMA: Retrieval-Augmented Multi-Agent Framework for Misinformation Detection in Multimodal Fact-Checking [15.160356035522609]
RAMAは、マルチメディアの誤情報を検証するために設計された新しい検索拡張マルチエージェントフレームワークである。
RAMAには,(1)マルチモーダルクレームを正確なWeb検索クエリに変換する戦略的クエリの定式化,(2)多様な権威ソースからの相互検証証拠の集約,(3)マルチエージェントアンサンブルアーキテクチャの3つの革新が含まれている。
論文 参考訳(メタデータ) (2025-07-12T07:46:51Z) - Rethinking Information Synthesis in Multimodal Question Answering A Multi-Agent Perspective [42.832839189236694]
テキスト,テーブル,画像にまたがるマルチモーダル入力のためのマルチエージェントQAフレームワークであるMAMMQAを提案する。
このシステムには2つのVisual Language Model (VLM)エージェントと1つのテキストベースLarge Language Model (LLM)エージェントが含まれる。
多様なマルチモーダルQAベンチマークの実験により、我々の協調型マルチエージェントフレームワークは、精度と堅牢性の両方で既存のベースラインを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-05-27T07:23:38Z) - MDocAgent: A Multi-Modal Multi-Agent Framework for Document Understanding [40.52017994491893]
MDocAgentは、テキストとイメージの両方を活用する新しいRAGおよびマルチエージェントフレームワークである。
本システムでは, 汎用エージェント, クリティカルエージェント, テキストエージェント, 画像エージェント, 要約エージェントの5種類の特殊エージェントを用いる。
5つのベンチマークの予備実験では、MDocAgentの有効性が示され、平均12.1%の改善が達成された。
論文 参考訳(メタデータ) (2025-03-18T06:57:21Z) - Symbolic Mixture-of-Experts: Adaptive Skill-based Routing for Heterogeneous Reasoning [76.10639521319382]
シンボリックなテキストベースでグラデーションのないMixture-of-ExpertsフレームワークであるSybolic-MoEを提案する。
GPT4o-miniのような強力なLCMやマルチエージェントアプローチに勝るSymbolic-MoEは、最高のマルチエージェントベースラインよりも8.15%向上している。
論文 参考訳(メタデータ) (2025-03-07T18:03:13Z) - Benchmarking Retrieval-Augmented Generation in Multi-Modal Contexts [56.7225771305861]
本稿では,マルチモーダル大規模言語モデルの有効性を評価するためのベンチマークであるMulti-Modal Retrieval-Augmented Generation (M$2$RAG)を紹介する。
このベンチマークは、イメージキャプション、マルチモーダル質問応答、マルチモーダル事実検証、イメージリランクの4つのタスクで構成されている。
MLLMのコンテキスト利用能力を高めるため,マルチモーダル検索型インストラクションチューニング(MM-RAIT)も導入する。
論文 参考訳(メタデータ) (2025-02-24T16:25:25Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。