論文の概要: Strategic Tradeoffs Between Humans and AI in Multi-Agent Bargaining
- arxiv url: http://arxiv.org/abs/2509.09071v2
- Date: Fri, 12 Sep 2025 18:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 11:17:11.572722
- Title: Strategic Tradeoffs Between Humans and AI in Multi-Agent Bargaining
- Title(参考訳): マルチエージェント取引における人間とAIの戦略的トレードオフ
- Authors: Crystal Qian, Kehang Zhu, John Horton, Benjamin S. Manning, Vivian Tsai, James Wexler, Nithum Thain,
- Abstract要約: 人類が伝統的に行ってきた調整作業は、ますます自律的なエージェントに委譲されている。
我々は,人間(N = 216),大言語モデル(LLM),ベイズエージェントを動的交渉条件で比較した。
エージェント評価の一般的なベンチマークであるパフォーマンスの同等性は、プロセスとアライメントの根本的な違いを隠蔽する可能性がある。
- 参考スコア(独自算出の注目度): 6.455342700410145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coordination tasks traditionally performed by humans are increasingly being delegated to autonomous agents. As this pattern progresses, it becomes critical to evaluate not only these agents' performance but also the processes through which they negotiate in dynamic, multi-agent environments. Furthermore, different agents exhibit distinct advantages: traditional statistical agents, such as Bayesian models, may excel under well-specified conditions, whereas large language models (LLMs) can generalize across contexts. In this work, we compare humans (N = 216), LLMs (GPT-4o, Gemini 1.5 Pro), and Bayesian agents in a dynamic negotiation setting that enables direct, identical-condition comparisons across populations, capturing both outcomes and behavioral dynamics. Bayesian agents extract the highest surplus through aggressive optimization, at the cost of frequent trade rejections. Humans and LLMs can achieve similar overall surplus, but through distinct behaviors: LLMs favor conservative, concessionary trades with few rejections, while humans employ more strategic, risk-taking, and fairness-oriented behaviors. Thus, we find that performance parity -- a common benchmark in agent evaluation -- can conceal fundamental differences in process and alignment, which are critical for practical deployment in real-world coordination tasks.
- Abstract(参考訳): 人類が伝統的に行ってきた調整作業は、ますます自律的なエージェントに委譲されている。
このパターンが進むにつれて、これらのエージェントのパフォーマンスだけでなく、動的でマルチエージェントな環境で交渉するプロセスを評価することが重要になる。
さらに、ベイズモデルのような伝統的な統計エージェントは、明確に特定された条件下では優れるが、大きな言語モデル(LLM)は文脈を横断して一般化することができる。
本研究では,人間 (N = 216), LLM (GPT-4o, Gemini 1.5 Pro) とベイズエージェント (ベイズエージェント) を,集団間の直接的, 同一条件比較が可能な動的交渉条件で比較し, 結果と行動力学の両方を捉える。
ベイジアン・エージェントは、頻繁な貿易拒絶を犠牲にして、積極的な最適化を通じて最高の余剰を抽出する。
人間とLLMは同様の全体的な余剰を達成できるが、異なる行動によって、LLMは保守的で譲歩的な取引をほとんど拒否しないが、人間はより戦略的、リスクテイク、公正志向の行動を採用する。
したがって、エージェント評価における一般的なベンチマークであるパフォーマンスの同等性は、プロセスとアライメントの根本的な違いを隠蔽する可能性がある。
関連論文リスト
- A Dual-Agent Adversarial Framework for Robust Generalization in Deep Reinforcement Learning [7.923577336744156]
両エージェント対応型政策学習フレームワークを提案する。
このフレームワークは、エージェントが人間の事前知識を導入することなく、基礎となるセマンティクスを自発的に学習することを可能にする。
実験により, 両エージェントの一般化性能が著しく向上することが確認された。
論文 参考訳(メタデータ) (2025-01-29T02:36:47Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - CoPS: Empowering LLM Agents with Provable Cross-Task Experience Sharing [70.25689961697523]
クロスタスク体験の共有と選択によるシーケンシャル推論を強化する一般化可能なアルゴリズムを提案する。
我々の研究は、既存のシーケンシャルな推論パラダイムのギャップを埋め、タスク間体験の活用の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T03:59:53Z) - Moral Alignment for LLM Agents [3.7414804164475983]
我々は,人間の中心的価値を明確にかつ透過的にエンコードする報酬関数の設計を導入する。
我々は,Deontological EthicsとUtilitarianismの伝統的な哲学的枠組みを用いて,我々のアプローチを評価する。
我々は、エージェントが以前開発された自己中心的な戦略を解き放つことを可能にするために、いかに道徳的な微調整を展開できるかを示す。
論文 参考訳(メタデータ) (2024-10-02T15:09:36Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。