論文の概要: Learning "Partner-Aware" Collaborators in Multi-Party Collaboration
- arxiv url: http://arxiv.org/abs/2510.22462v1
- Date: Sun, 26 Oct 2025 00:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.211087
- Title: Learning "Partner-Aware" Collaborators in Multi-Party Collaboration
- Title(参考訳): 多人数共同作業における「パートナー意識」の学習
- Authors: Abhijnan Nath, Nikhil Krishnaswamy,
- Abstract要約: 大規模言語モデル(LLM)は,人間との共同作業を行うエージェント設定にデプロイされることが増えている。
本稿では、協調行動に関する新たな理論的洞察を提供するために、AIアライメントと安全な割り込み可能性文献に基づく。
CG-最適協調者を訓練するための新しいパートナー認識学習アルゴリズムであるInterruptible Collaborative Roleplayer (ICR)を提案する。
- 参考スコア(独自算出の注目度): 12.287537011305497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly bring deployed in agentic settings where they act as collaborators with humans. Therefore, it is increasingly important to be able to evaluate their abilities to collaborate effectively in multi-turn, multi-party tasks. In this paper, we build on the AI alignment and safe interruptability literature to offer novel theoretical insights on collaborative behavior between LLM-driven collaborator agents and an intervention agent. Our goal is to learn an ideal partner-aware collaborator that increases the group's common-ground (CG)-alignment on task-relevant propositions-by intelligently collecting information provided in interventions by a partner agent.We show how LLM agents trained using standard RLHF and related approaches are naturally inclined to ignore possibly well-meaning interventions, which makes increasing group common ground non-trivial in this setting. We employ a two-player Modified-Action MDP to examine this suboptimal behavior of standard AI agents, and propose Interruptible Collaborative Roleplayer (ICR)-a novel partner-aware learning algorithm to train CG-optimal collaborators. Experiments on multiple collaborative task environments show that ICR, on average, is more capable of promoting successful CG convergence and exploring more diverse solutions in such tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は,人間との共同作業を行うエージェント設定にデプロイされることが増えている。
そのため、マルチターン・マルチパーティ・タスクにおいて効果的に連携できる能力を評価することがますます重要である。
本稿では,LLM駆動協調エージェントと介入エージェントの協調行動に関する新たな理論的知見を提供するために,AIアライメントと安全な割り込み可能性文献を構築した。
本研究の目的は,標準RLHFおよびそれに関連するアプローチを用いて訓練されたLCMエージェントが,潜在的に好ましくない介入を無視する傾向にあることを示す。
我々は、標準的なAIエージェントのこの最適動作を調べるために、2人プレイヤModified-Action MDPを使用し、CG-Optimal Colllaboratorをトレーニングするための新しいパートナー認識学習アルゴリズムであるInterruptible Collaborative Roleplayer (ICR)を提案する。
複数の協調作業環境の実験では、ICCはCG収束を成功させ、そのようなタスクにおいてより多様なソリューションを探索する能力が高いことが示されている。
関連論文リスト
- Let's Roleplay: Examining LLM Alignment in Collaborative Dialogues [11.888786446094057]
本稿では,多人数共同作業におけるパートナーとしての大規模言語モデルの有効性に,異なるアライメント手法がどのような影響を与えるかを検討する。
ロールプレイ手法を用いて、協調作業会話における異なる訓練された摩擦剤の介入を評価する。
以上の結果から, 摩擦認識アプローチは, 共通基盤への収束, あるいはタスク関連命題の一致, タスク結果の正当性の両方において, 共通のアライメントベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-09-07T00:58:10Z) - Enhancing Multi-Agent Collaboration with Attention-Based Actor-Critic Policies [0.0]
Team-Attention-Actor-Critic (TAAC)は、協調環境におけるマルチエージェントコラボレーションを強化するために設計された学習アルゴリズムである。
シミュレーションサッカー環境におけるTAACをベンチマークアルゴリズムを用いて評価する。
論文 参考訳(メタデータ) (2025-07-30T15:48:38Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [50.657070334404835]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - LLM-Coordination: Evaluating and Analyzing Multi-agent Coordination Abilities in Large Language Models [23.092480882456048]
大きな言語モデル(LLM)は、創発的な常識推論と心の理論(ToM)能力を示している。
本研究では,Pure Coordination Sets の文脈で LLM を解析するための新しいベンチマークである LLM-Coordination Benchmark を紹介する。
論文 参考訳(メタデータ) (2023-10-05T21:18:15Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Iterated Reasoning with Mutual Information in Cooperative and Byzantine
Decentralized Teaming [0.0]
我々は,政策グラディエント(PG)の下での最適化において,エージェントの方針がチームメイトの方針に準じることが,本質的に相互情報(MI)の下限を最大化することを示す。
我々の手法であるInfoPGは、創発的協調行動の学習におけるベースラインを上回り、分散協調型MARLタスクにおける最先端の課題を設定します。
論文 参考訳(メタデータ) (2022-01-20T22:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。