論文の概要: MERIT Feedback Elicits Better Bargaining in LLM Negotiators
- arxiv url: http://arxiv.org/abs/2602.10467v1
- Date: Wed, 11 Feb 2026 03:09:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.41888
- Title: MERIT Feedback Elicits Better Bargaining in LLM Negotiators
- Title(参考訳): LLM交渉者、MERITのフィードバックで交渉改善へ-関係者
- Authors: Jihwan Oh, Murad Aghazada, Yooju Shin, Se-Young Yun, Taehyeon Kim,
- Abstract要約: AgoraBenchは、9つの困難な設定にまたがる新しいベンチマークである。
これは、エージェントユーティリティ、交渉力、および交渉が人間の好みとどの程度うまく一致しているかを暗黙的に測定する買収比率を介して運用される。
我々のメカニズムは交渉性能を大幅に改善し、より深い戦略行動とより強力な敵意識をもたらす。
- 参考スコア(独自算出の注目度): 38.1466669265123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bargaining is often regarded as a logical arena rather than an art or a matter of intuition, yet Large Language Models (LLMs) still struggle to navigate it due to limited strategic depth and difficulty adapting to complex human factors. Current benchmarks rarely capture this limitation. To bridge this gap, we present an utility feedback centric framework. Our contributions are: (i) AgoraBench, a new benchmark spanning nine challenging settings (e.g., deception, monopoly) that supports diverse strategy modeling; (ii) human-aligned, economically grounded metrics derived from utility theory. This is operationalized via agent utility, negotiation power, and acquisition ratio that implicitly measure how well the negotiation aligns with human preference and (iii) a human preference grounded dataset with learning pipeline that strengthens LLMs' bargaining ability through both prompting and finetuning. Empirical results indicate that baseline LLM strategies often diverge from human preferences, while our mechanism substantially improves negotiation performance, yielding deeper strategic behavior and stronger opponent awareness.
- Abstract(参考訳): 交渉は芸術や直観というよりも論理的な分野と見なされることが多いが、Large Language Models (LLMs) は戦略的な深さが限られ、複雑な人間の要素に適応することが難しいため、いまだにそれをナビゲートするのに苦労している。
現在のベンチマークでは、この制限はめったに当てはまらない。
このギャップを埋めるために、ユーティリティフィードバック中心のフレームワークを提示します。
私たちの貢献は次のとおりです。
(i)AgoraBenchは、さまざまな戦略モデリングをサポートする9つの挑戦的な設定(例えば、偽装、独占)にまたがる新しいベンチマークである。
(二 効用理論から導かれた人道的経済基盤の指標。)
これは、エージェントユーティリティ、交渉力、および交渉が人間の好みとどの程度うまく一致しているかを暗黙的に測定する買収比率を介して運用される。
三 学習パイプラインを用いた人間の嗜好基盤データセットで、即興性及び微調整性によりLLMの獲得能力を高める。
実験結果から,LLM戦略は人的嗜好から分岐することが多いが,我々のメカニズムは交渉性能を大幅に向上させ,より深い戦略行動と強い反対意識をもたらすことが示唆された。
関連論文リスト
- LLM Rationalis? Measuring Bargaining Capabilities of AI Negotiators [2.1952520391635586]
バイラテラルネゴシエーションは、人間の交渉者がアンカー、ペーシング、柔軟性を動的に調整し、パワー・アシンメトリーと非公式な手段を利用する複雑なコンテキスト依存のタスクである。
双曲的接点曲線に基づく譲歩力学をモデル化するための統一的な数学的枠組みを導入する。
人間の交渉者と4つの最先端の大規模言語モデル(LLM)を、自然言語と数値的な設定で大規模に比較した。
論文 参考訳(メタデータ) (2025-12-15T07:50:09Z) - How Far Can LLMs Emulate Human Behavior?: A Strategic Analysis via the Buy-and-Sell Negotiation Game [0.8353024005684598]
大規模言語モデル(LLM)の人間の感情的・行動的模倣と戦略的意思決定能力を定量的に評価する手法を提案する。
具体的には、複数のLLMに異なるペルソナを割り当て、バイヤーとセラーの交渉を行い、勝利率、取引価格、SHAP値などの結果を包括的に分析する。
実験の結果,既存のベンチマークスコアが高いモデルでは,全体の交渉性能が向上することが示された。
論文 参考訳(メタデータ) (2025-11-22T09:07:29Z) - EvoEmo: Towards Evolved Emotional Policies for Adversarial LLM Agents in Multi-Turn Price Negotiation [61.627248012799704]
既存のLarge Language Models (LLM)エージェントは、そのような交渉における感情の機能的役割をほとんど見落としている。
本稿では,交渉における動的感情表現を最適化する進化的強化学習フレームワークであるEvoEmoを紹介する。
論文 参考訳(メタデータ) (2025-09-04T15:23:58Z) - LLM Agents for Bargaining with Utility-based Feedback [23.357706450282002]
ユーティリティベースのフィードバックを中心とした包括的フレームワークを導入する。
1)新しいベンチマークデータセットであるBargainArena,(2)ユーティリティ理論にインスパイアされた人力による経済的な評価指標,(3)LCMを反復的にバリ取り戦略を洗練させる構造的フィードバックメカニズムである。
論文 参考訳(メタデータ) (2025-05-29T02:07:27Z) - EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - LLMs with Personalities in Multi-issue Negotiation Games [2.186901738997927]
ゲーム理論の枠組みの中で,大規模言語モデル(LLM)の交渉能力を測定する。
高い開放性、良心、神経症は公正な傾向と関連している。
低一致性と低開放性は合理的な傾向と関連している。
論文 参考訳(メタデータ) (2024-05-08T17:51:53Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。