論文の概要: Position: Towards a Responsible LLM-empowered Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2502.01714v1
- Date: Mon, 03 Feb 2025 16:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:57:11.877525
- Title: Position: Towards a Responsible LLM-empowered Multi-Agent Systems
- Title(参考訳): 位置:レスポンシブルLLM搭載マルチエージェントシステムに向けて
- Authors: Jinwei Hu, Yi Dong, Shuang Ao, Zhuoyun Li, Boxuan Wang, Lokesh Singh, Guangliang Cheng, Sarvapali D. Ramchurn, Xiaowei Huang,
- Abstract要約: Agent AIとLarge Language Model-powered Multi-Agent Systems (LLM-MAS)の台頭は、責任と信頼性のあるシステム操作の必要性を浮き彫りにした。
LLMエージェントは固有の予測不能を示し、出力の不確実性は複雑になり、システムの安定性を脅かす。
これらのリスクに対処するためには、アクティブな動的モデレーションを備えた人間中心の設計アプローチが不可欠である。
- 参考スコア(独自算出の注目度): 22.905804138387854
- License:
- Abstract: The rise of Agent AI and Large Language Model-powered Multi-Agent Systems (LLM-MAS) has underscored the need for responsible and dependable system operation. Tools like LangChain and Retrieval-Augmented Generation have expanded LLM capabilities, enabling deeper integration into MAS through enhanced knowledge retrieval and reasoning. However, these advancements introduce critical challenges: LLM agents exhibit inherent unpredictability, and uncertainties in their outputs can compound across interactions, threatening system stability. To address these risks, a human-centered design approach with active dynamic moderation is essential. Such an approach enhances traditional passive oversight by facilitating coherent inter-agent communication and effective system governance, allowing MAS to achieve desired outcomes more efficiently.
- Abstract(参考訳): Agent AIとLarge Language Model-powered Multi-Agent Systems (LLM-MAS)の台頭は、責任と信頼性のあるシステム操作の必要性を浮き彫りにした。
LangChainやRetrieval-Augmented GenerationといったツールはLLM機能を拡張し、知識検索と推論の強化を通じてMASへのより深い統合を可能にした。
しかし、これらの進歩は重要な課題をもたらす: LLMエージェントは固有の予測不可能を示し、その出力の不確実性は相互作用を複雑にし、システムの安定性を脅かす。
これらのリスクに対処するためには、アクティブな動的モデレーションを備えた人間中心の設計アプローチが不可欠である。
このようなアプローチは、一貫性のあるエージェント間通信と効果的なシステムガバナンスを促進することによって、従来の受動的監視を強化し、MASがより効率的に望ましい結果を達成することを可能にする。
関連論文リスト
- G-Safeguard: A Topology-Guided Security Lens and Treatment on LLM-based Multi-agent Systems [10.450573905691677]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)は,様々な複雑なタスクにおいて顕著な機能を示した。
これらのシステムがますます重要なアプリケーションに統合されるにつれて、敵の攻撃、誤情報伝播、意図しない行動に対する脆弱性が懸念されている。
我々は、トポロジー誘導型セキュリティレンズであるG-Safeguardを導入し、ロバストMASに対する治療を行った。
論文 参考訳(メタデータ) (2025-02-16T13:48:41Z) - LMAgent: A Large-scale Multimodal Agents Society for Multi-user Simulation [66.52371505566815]
大規模言語モデル(LLM)ベースのAIエージェントは、人間のような知性を達成するために、大きな進歩を遂げた。
LMAgentは,マルチモーダル LLM に基づく大規模かつマルチモーダルなエージェント社会である。
LMAgentでは、友人とチャットする以外に、エージェントは自動で商品を閲覧、購入、レビューしたり、ライブストリーミングのeコマースを行うこともできる。
論文 参考訳(メタデータ) (2024-12-12T12:47:09Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - A Study on Prompt Injection Attack Against LLM-Integrated Mobile Robotic Systems [4.71242457111104]
大規模言語モデル(LLM)はマルチモーダルプロンプトを処理でき、よりコンテキスト対応の応答を生成することができる。
主な懸念事項の1つは、ロボットナビゲーションタスクでLLMを使用する際の潜在的なセキュリティリスクである。
本研究は,LPM統合システムにおける即時注入が移動ロボットの性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-08-07T02:48:22Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは進化的アルゴリズムによって専門家エージェントをマルチエージェントシステムに自動的に拡張する汎用的な手法である。
EvoAgentは複数の専門家エージェントを自動生成し,LLMエージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Controlling Large Language Model-based Agents for Large-Scale
Decision-Making: An Actor-Critic Approach [28.477463632107558]
我々はLLaMACと呼ばれるモジュラーフレームワークを開発し、大規模言語モデルにおける幻覚とマルチエージェントシステムにおける協調に対処する。
LLaMACは、人間の脳にあるものに似た値分布をコードし、内部および外部からのフィードバック機構を利用して、モジュール間の協調と反復的推論を促進する。
論文 参考訳(メタデータ) (2023-11-23T10:14:58Z) - Balancing Autonomy and Alignment: A Multi-Dimensional Taxonomy for
Autonomous LLM-powered Multi-Agent Architectures [0.0]
大規模言語モデル(LLM)は、洗練された言語理解と生成能力を備えた人工知能の分野に革命をもたらした。
本稿では,LLMを用いた自律型マルチエージェントシステムが自律性とアライメントの動的相互作用をどのようにバランスさせるかを分析するために,総合的な多次元分類法を提案する。
論文 参考訳(メタデータ) (2023-10-05T16:37:29Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Self-Adaptive Large Language Model (LLM)-Based Multiagent Systems [0.0]
本稿では,大規模言語モデル(LLM)をマルチエージェントシステムに統合することを提案する。
我々は、モニタリング、分析、計画、システム適応の実行において堅牢なサポートで有名であるMAPE-Kモデルに、我々の方法論を固定する。
論文 参考訳(メタデータ) (2023-07-12T14:26:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。