論文の概要: Effects of Theory of Mind and Prosocial Beliefs on Steering Human-Aligned Behaviors of LLMs in Ultimatum Games
- arxiv url: http://arxiv.org/abs/2505.24255v1
- Date: Fri, 30 May 2025 06:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.801989
- Title: Effects of Theory of Mind and Prosocial Beliefs on Steering Human-Aligned Behaviors of LLMs in Ultimatum Games
- Title(参考訳): ウルティマトゥムゲームにおける心の理論と社会的信念がLLMのステアリング行動に及ぼす影響
- Authors: Neemesh Yadav, Palakorn Achananuparp, Jing Jiang, Ee-Peng Lim,
- Abstract要約: 交渉課題におけるエージェント的行動と人間の規範を整合させる上での思考理論(ToM)推論の役割について検討する。
ToM推論は、行動整合性、意思決定整合性、交渉結果を高める。
本研究は,人間とAIの相互作用と協調的意思決定の促進におけるToMの役割の理解に寄与する。
- 参考スコア(独自算出の注目度): 17.615991993062455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown potential in simulating human behaviors and performing theory-of-mind (ToM) reasoning, a crucial skill for complex social interactions. In this study, we investigate the role of ToM reasoning in aligning agentic behaviors with human norms in negotiation tasks, using the ultimatum game as a controlled environment. We initialized LLM agents with different prosocial beliefs (including Greedy, Fair, and Selfless) and reasoning methods like chain-of-thought (CoT) and varying ToM levels, and examined their decision-making processes across diverse LLMs, including reasoning models like o3-mini and DeepSeek-R1 Distilled Qwen 32B. Results from 2,700 simulations indicated that ToM reasoning enhances behavior alignment, decision-making consistency, and negotiation outcomes. Consistent with previous findings, reasoning models exhibit limited capability compared to models with ToM reasoning, different roles of the game benefits with different orders of ToM reasoning. Our findings contribute to the understanding of ToM's role in enhancing human-AI interaction and cooperative decision-making. The code used for our experiments can be found at https://github.com/Stealth-py/UltimatumToM.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な社会的相互作用において重要なスキルである人間の振る舞いをシミュレートし、理論・オブ・ミンド推論(ToM)を実行する可能性を示している。
本研究では,交渉作業におけるエージェント行動と人間規範の整合化におけるToM推論の役割を,最後通しゲームを用いて検討した。
我々は,様々な社会的信念(Greedy, Fair, Selflessなど)と,チェーン・オブ・シント(CoT)や様々なToMレベルなどの推論手法を併用したLSMエージェントを初期化し,O3-miniやDeepSeek-R1 Distilled Qwen 32Bなどの推論モデルを含む様々なLSMの意思決定プロセスを検討した。
2,700のシミュレーション結果から,ToM推論は行動整合性,意思決定整合性,交渉結果を向上させることが示された。
以前の結果と異なり、推論モデルはToM推論のモデルと比較して限られた能力を示しており、ゲームの役割はToM推論の異なる順序で異なる。
本研究は,人間とAIの相互作用と協調的意思決定の促進におけるToMの役割の理解に寄与する。
実験に使われたコードはhttps://github.com/Stealth-py/UltimatumToM.comで確認できます。
関連論文リスト
- Re-evaluating Theory of Mind evaluation in large language models [3.262532929657758]
認知科学からインスピレーションを得て,大規模言語モデルにおけるToM評価の状況を再評価する。
LLMがToMを持つかどうかについての意見の相違の主な理由は、モデルが人間の行動にマッチするかどうかの明確さの欠如である。
ToMと実用的コミュニケーションの関係など,今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2025-02-28T14:36:57Z) - Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection [31.38516078163367]
ToM-agentは、オープンドメインの会話相互作用において、LLMベースの生成エージェントがToMをシミュレートできるように設計されている。
ToM-Adntは、精神状態に対するエージェントの認識のエミュレーションを促進するため、精神状態からの信頼を解き放つ。
以上の結果から,ToM-agentは,意味的情緒的支援や意思決定に限らず,相手の行動の根底にある要因を把握できることが示唆された。
論文 参考訳(メタデータ) (2025-01-26T00:32:38Z) - Perceptions to Beliefs: Exploring Precursory Inferences for Theory of Mind in Large Language Models [51.91448005607405]
ToMi と FANToM に文字認識を付加することにより,ヒト ToM 前駆体の評価を行った。
本稿では,LLMの強い知覚推定能力を利用した新しいToM手法であるPercepToMについて述べる。
論文 参考訳(メタデータ) (2024-07-08T14:58:29Z) - Do LLMs Exhibit Human-Like Reasoning? Evaluating Theory of Mind in LLMs for Open-Ended Responses [11.121931601655174]
心の理論 (ToM) は、他個人が自身の意図、感情、思考を持っていると認識することを必要とする。
大きな言語モデル(LLM)は要約、質問応答、翻訳といったタスクに優れる。
進歩にもかかわらず、LLMがToM推論を真に理解している範囲は、未解決のシナリオでは不十分である。
論文 参考訳(メタデータ) (2024-06-09T05:57:59Z) - PHAnToM: Persona-based Prompting Has An Effect on Theory-of-Mind Reasoning in Large Language Models [25.657579792829743]
我々は,ロールプレイングの促進が理論・オブ・ミンド(ToM)推論能力にどのように影響するかを実証的に評価した。
本稿では、推論タスクの複雑さの固有のばらつきを超えて、社会的に動機づけられた相違が原因で、パフォーマンスの違いが発生するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-03-04T17:34:34Z) - HI-TOM: A Benchmark for Evaluating Higher-Order Theory of Mind Reasoning
in Large Language Models [31.831042765744204]
心の理論(りょうがく、英: Theory of Mind、ToM)とは、自己と他者の精神状態について考える能力である。
本稿では,高次マインド理論のベンチマークであるHI-TOMを紹介する。
各種Large Language Models (LLM) を用いた実験により,高次ToMタスクの性能低下が示唆された。
論文 参考訳(メタデータ) (2023-10-25T16:41:15Z) - FANToM: A Benchmark for Stress-testing Machine Theory of Mind in
Interactions [94.61530480991627]
現在、マインド評価の理論は、本質的に相互作用性に欠ける受動的物語を用いたテストモデルに焦点を当てている。
本稿では,情報非対称な会話文脈におけるToMのストレステストを目的とした新しいベンチマークであるFANToMを紹介する。
論文 参考訳(メタデータ) (2023-10-24T00:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。