論文の概要: LLMs with Personalities in Multi-issue Negotiation Games
- arxiv url: http://arxiv.org/abs/2405.05248v1
- Date: Wed, 8 May 2024 17:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 13:45:01.163052
- Title: LLMs with Personalities in Multi-issue Negotiation Games
- Title(参考訳): 多機能ネゴシエーションゲームにおけるパーソナリティとLLM
- Authors: Sean Noh, Ho-Chun Herbert Chang,
- Abstract要約: ゲーム理論の枠組みの中で,大規模言語モデル(LLM)の交渉能力を測定する。
高い開放性、良心、神経症は公正な傾向と関連している。
低一致性と低開放性は合理的な傾向と関連している。
- 参考スコア(独自算出の注目度): 2.186901738997927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Powered by large language models (LLMs), AI agents have become capable of many human tasks. Using the most canonical definitions of the Big Five personality, we measure the ability of LLMs to negotiate within a game-theoretical framework, as well as methodological challenges to measuring notions of fairness and risk. Simulations (n=1,500) for both single-issue and multi-issue negotiation reveal increase in domain complexity with asymmetric issue valuations improve agreement rates but decrease surplus from aggressive negotiation. Through gradient-boosted regression and Shapley explainers, we find high openness, conscientiousness, and neuroticism are associated with fair tendencies; low agreeableness and low openness are associated with rational tendencies. Low conscientiousness is associated with high toxicity. These results indicate that LLMs may have built-in guardrails that default to fair behavior, but can be "jail broken" to exploit agreeable opponents. We also offer pragmatic insight in how negotiation bots can be designed, and a framework of assessing negotiation behavior based on game theory and computational social science.
- Abstract(参考訳): 大規模言語モデル(LLM)によって駆動されるAIエージェントは、多くの人間のタスクをこなす能力を持つようになった。
ビッグファイブのパーソナリティの最も標準的な定義を用いて、ゲーム理論の枠組み内でLLMが交渉する能力を測定するとともに、フェアネスとリスクの概念を計測するための方法論的課題も測定する。
シングルイシューとマルチイシューの交渉のシミュレーション(n=1500)では、非対称なイシューバリュエーションによるドメインの複雑さが増加し、合意率が向上するが、アグレッシブな交渉による余剰量を減少させる。
緩やかな回帰とシェープリーの説明を通じて、高い開放性、良心性、神経性は公正な傾向に結びついており、低い一致性と低い開放性は合理的な傾向に結びついている。
低い良性は高い毒性と関連している。
これらの結果は、LLMがデフォルトの公正な動作にガードレールを組み込んだかもしれないが、同意できる相手を悪用するために「ジェイルが壊れている」可能性があることを示唆している。
また,ゲーム理論と計算社会科学に基づく交渉行動評価の枠組みとして,交渉ボットの設計に関する実践的な知見を提供する。
関連論文リスト
- Walking in Others' Shoes: How Perspective-Taking Guides Large Language Models in Reducing Toxicity and Bias [16.85625861663094]
社会心理学の原則に触発されて, LLMに多様な人間の視点を取り入れ, 反応を自己制御させる, textscPeT という新しい戦略を提案する。
2つの商用LCMと3つのオープンソースLCMに対して厳密な評価およびアブレーション研究を行い、より有害な応答を生み出す上でのtextscPeT の優位性を明らかにした。
論文 参考訳(メタデータ) (2024-07-22T04:25:01Z) - How Personality Traits Influence Negotiation Outcomes? A Simulation based on Large Language Models [2.7010154811483167]
本稿では,Large Language Model (LLM) エージェントに着目したシミュレーションフレームワークを提案する。
実験結果から, LLMシミュレーションの行動傾向は, 人間の交渉で観察された行動パターンを再現できることが示唆された。
論文 参考訳(メタデータ) (2024-07-16T09:52:51Z) - NegotiationToM: A Benchmark for Stress-testing Machine Theory of Mind on Negotiation Surrounding [55.38254464415964]
現在、マインド評価の理論は、機械生成データやゲーム設定を用いたテストモデルに焦点を合わせており、ショートカットや素早い相関が生じる傾向にある。
我々は,多次元精神状態を取り巻く実世界の交渉において,ストレステストマシンToMのための新しいベンチマークであるNegotiationToMを紹介する。
論文 参考訳(メタデータ) (2024-04-21T11:51:13Z) - How Well Can LLMs Negotiate? NegotiationArena Platform and Analysis [50.15061156253347]
人間は自動車の価格から共通の資源の共有方法まで、あらゆることを交渉する。
大規模言語モデル(LLM)を人間の代理エージェントとして使うことへの関心が急速に高まっているため、そのようなLLMエージェントも交渉できる必要がある。
我々は,LLMエージェントの交渉能力を評価し,検証するためのフレキシブルなフレームワークであるNegotiationArenaを開発した。
論文 参考訳(メタデータ) (2024-02-08T17:51:48Z) - Assistive Large Language Model Agents for Socially-Aware Negotiation Dialogues [47.977032883078664]
我々はLarge Language Models(LLM)に基づく支援エージェントを開発する。
2つのLLMエージェントをロールプレイに参加させることで、ビジネス交渉をシミュレートする。
第3のLLMは、交渉結果を改善するための基準に違反した発話を書き換える仲介役として機能する。
論文 参考訳(メタデータ) (2024-01-29T09:07:40Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Large Language Models are Not Yet Human-Level Evaluators for Abstractive
Summarization [66.08074487429477]
抽象的な要約のための自動評価器として,大規模言語モデル(LLM)の安定性と信頼性について検討する。
また、ChatGPTとGPT-4は、一般的に使われている自動測定値よりも優れていますが、人間の代替品として準備ができていません。
論文 参考訳(メタデータ) (2023-05-22T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。