論文の概要: Strategic Tradeoffs Between Humans and AI in Multi-Agent Bargaining
- arxiv url: http://arxiv.org/abs/2509.09071v3
- Date: Mon, 13 Oct 2025 22:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:31.990859
- Title: Strategic Tradeoffs Between Humans and AI in Multi-Agent Bargaining
- Title(参考訳): マルチエージェント取引における人間とAIの戦略的トレードオフ
- Authors: Crystal Qian, Kehang Zhu, John Horton, Benjamin S. Manning, Vivian Tsai, James Wexler, Nithum Thain,
- Abstract要約: 我々は,人間,大言語モデル,ベイズエージェントの動的交渉条件における結果と行動力学を比較した。
パフォーマンスの同等性は、プロセスとアライメントの根本的な違いを隠蔽する可能性がある。
この研究は、より応用され、変数リッチな環境における将来の研究のベースラインを提供する。
- 参考スコア(独自算出の注目度): 6.455342700410145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) are increasingly embedded in collaborative human activities such as business negotiations and group coordination, it becomes critical to evaluate both the performance gains they can achieve and how they interact in dynamic, multi-agent environments. Unlike traditional statistical agents such as Bayesian models, which may excel under well-specified conditions, large language models (LLMs) can generalize across diverse, real-world scenarios, raising new questions about how their strategies and behaviors compare to those of humans and other agent types. In this work, we compare outcomes and behavioral dynamics across humans (N = 216), LLMs (GPT-4o, Gemini 1.5 Pro), and Bayesian agents in a dynamic negotiation setting under identical conditions. Bayesian agents extract the highest surplus through aggressive optimization, at the cost of frequent trade rejections. Humans and LLMs achieve similar overall surplus, but through distinct behaviors: LLMs favor conservative, concessionary trades with few rejections, while humans employ more strategic, risk-taking, and fairness-oriented behaviors. Thus, we find that performance parity -- a common benchmark in agent evaluation -- can conceal fundamental differences in process and alignment, which are critical for practical deployment in real-world coordination tasks. By establishing foundational behavioral baselines under matched conditions, this work provides a baseline for future studies in more applied, variable-rich environments.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ビジネス交渉やグループ調整といった協調的な人間の活動にますます組み込まれているため、それらが達成できるパフォーマンス向上と、動的でマルチエージェント環境でどのように相互作用するかを評価することが重要になる。
ベイズモデルのような特定の条件下では優れる従来の統計エージェントとは異なり、大規模言語モデル(LLM)は多種多様な現実世界のシナリオにまたがって一般化することができ、それらの戦略や行動が人間や他のエージェントとどのように比較されるのかという新たな疑問を提起する。
本研究では,人間間(N = 216),LLM(GPT-4o,Gemini 1.5 Pro),ベイズエージェントを同一条件下での動的交渉条件で比較した。
ベイジアン・エージェントは、頻繁な貿易拒絶を犠牲にして、積極的な最適化を通じて最高の余剰を抽出する。
LLMは保守的で譲歩的な取引をほとんど拒否しないが、人間はより戦略的、リスクテイク、フェアネス指向の行動を採用する。
したがって、エージェント評価における一般的なベンチマークであるパフォーマンスの同等性は、プロセスとアライメントの根本的な違いを隠蔽する可能性がある。
一致した条件下での基本的な行動ベースラインを確立することにより、この研究は、より応用され、変数リッチな環境における将来の研究のベースラインを提供する。
関連論文リスト
- A Dual-Agent Adversarial Framework for Robust Generalization in Deep Reinforcement Learning [7.923577336744156]
両エージェント対応型政策学習フレームワークを提案する。
このフレームワークは、エージェントが人間の事前知識を導入することなく、基礎となるセマンティクスを自発的に学習することを可能にする。
実験により, 両エージェントの一般化性能が著しく向上することが確認された。
論文 参考訳(メタデータ) (2025-01-29T02:36:47Z) - From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - CoPS: Empowering LLM Agents with Provable Cross-Task Experience Sharing [70.25689961697523]
クロスタスク体験の共有と選択によるシーケンシャル推論を強化する一般化可能なアルゴリズムを提案する。
我々の研究は、既存のシーケンシャルな推論パラダイムのギャップを埋め、タスク間体験の活用の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T03:59:53Z) - Moral Alignment for LLM Agents [3.7414804164475983]
我々は,人間の中心的価値を明確にかつ透過的にエンコードする報酬関数の設計を導入する。
我々は,Deontological EthicsとUtilitarianismの伝統的な哲学的枠組みを用いて,我々のアプローチを評価する。
我々は、エージェントが以前開発された自己中心的な戦略を解き放つことを可能にするために、いかに道徳的な微調整を展開できるかを示す。
論文 参考訳(メタデータ) (2024-10-02T15:09:36Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。