論文の概要: Grounding Natural Language for Multi-agent Decision-Making with Multi-agentic LLMs
- arxiv url: http://arxiv.org/abs/2508.07466v1
- Date: Sun, 10 Aug 2025 19:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.868142
- Title: Grounding Natural Language for Multi-agent Decision-Making with Multi-agentic LLMs
- Title(参考訳): マルチエージェントLPMを用いたマルチエージェント意思決定のための接地自然言語
- Authors: Dom Huh, Prasant Mohapatra,
- Abstract要約: 大規模言語モデル(LLM)の能力を多エージェント意思決定アルゴリズムに組み込むことにより拡張する。
本稿では,多言語大言語モデル (LLM) の設計のための体系的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.186029242664931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language is a ubiquitous tool that is foundational to reasoning and collaboration, ranging from everyday interactions to sophisticated problem-solving tasks. The establishment of a common language can serve as a powerful asset in ensuring clear communication and understanding amongst agents, facilitating desired coordination and strategies. In this work, we extend the capabilities of large language models (LLMs) by integrating them with advancements in multi-agent decision-making algorithms. We propose a systematic framework for the design of multi-agentic large language models (LLMs), focusing on key integration practices. These include advanced prompt engineering techniques, the development of effective memory architectures, multi-modal information processing, and alignment strategies through fine-tuning algorithms. We evaluate these design choices through extensive ablation studies on classic game settings with significant underlying social dilemmas and game-theoretic considerations.
- Abstract(参考訳): 言語は、日々の対話から高度な問題解決タスクまで、推論とコラボレーションの基礎となるユビキタスなツールです。
共通言語の確立は、エージェント間の明確なコミュニケーションと理解を確保し、望ましい調整と戦略を促進するための強力な資産として機能する。
本研究では,大規模言語モデル(LLM)の能力を多エージェント意思決定アルゴリズムに組み込むことにより拡張する。
本稿では,多言語大言語モデル (LLM) の設計のための体系的フレームワークを提案する。
これには高度なプロンプトエンジニアリング技術、効果的なメモリアーキテクチャの開発、マルチモーダル情報処理、微調整アルゴリズムによるアライメント戦略が含まれる。
我々はこれらのデザイン選択を、社会的ジレンマとゲーム理論的考察を基礎とした古典的なゲーム設定に関する広範なアブレーション研究を通じて評価する。
関連論文リスト
- Large Language Model Agent: A Survey on Methodology, Applications and Challenges [88.3032929492409]
大きな言語モデル(LLM)エージェントは、目標駆動の振る舞いと動的適応能力を持ち、人工知能への重要な経路を示す可能性がある。
本調査は, LLMエージェントシステムを方法論中心の分類法により体系的に分解する。
私たちの作業は、エージェントの構築方法、コラボレーション方法、時間の経過とともにどのように進化するか、という、統一されたアーキテクチャの視点を提供します。
論文 参考訳(メタデータ) (2025-03-27T12:50:17Z) - A Comprehensive Survey on Multi-Agent Cooperative Decision-Making: Scenarios, Approaches, Challenges and Perspectives [6.277211882332452]
多エージェント協調意思決定は、複数のエージェントが協力して、確立されたタスクを完了し、特定の目的を達成する。
これらの技術は、自律運転、ドローンナビゲーション、災害救助、シミュレートされた軍事的対立といった現実のシナリオに広く応用されている。
論文 参考訳(メタデータ) (2025-03-17T17:45:46Z) - Beyond Self-Talk: A Communication-Centric Survey of LLM-Based Multi-Agent Systems [23.379992200838053]
大規模言語モデルに基づくマルチエージェントシステムは、複雑で協調的でインテリジェントな問題解決能力の可能性から、最近大きな注目を集めている。
既存の調査は、通常、LLM-MASをアプリケーションドメインやアーキテクチャに従って分類し、エージェントの振る舞いや相互作用を調整する際のコミュニケーションの中心的な役割を見越す。
本レビューは,LLM-MASにおける通信機構の理解を深め,堅牢でスケーラブルでセキュアなマルチエージェントシステムの設計と展開を容易にすることを目的としている。
論文 参考訳(メタデータ) (2025-02-20T07:18:34Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - A Survey: Collaborative Hardware and Software Design in the Era of Large Language Models [16.250856588632637]
大規模言語モデル(LLM)の急速な発展は、人工知能の分野を大きく変えた。
これらのモデルは多様なアプリケーションに統合され、研究と産業の両方に影響を及ぼす。
本稿では,大規模言語モデルの特徴と制約に対処するために,ハードウェアとソフトウェアの共同設計手法について検討する。
論文 参考訳(メタデータ) (2024-10-08T21:46:52Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - Mixture-of-Instructions: Aligning Large Language Models via Mixture Prompting [7.103987978402038]
我々はMixture-of-Instructions (MoI)と呼ばれる新しいテクニックを紹介する。
MoIは命令パッキングと多様なシステムプロンプトを組み合わせて言語モデルのアライメント効率を高める戦略を採用している。
提案手法はオープンソースQwen-7B-chatモデルに適用され,Qwen-SFT-MoIの開発が完了した。
論文 参考訳(メタデータ) (2024-04-29T03:58:12Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Cognitive Architectures for Language Agents [44.89258267600489]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。