論文の概要: Can LLMs Truly Embody Human Personality? Analyzing AI and Human Behavior Alignment in Dispute Resolution
- arxiv url: http://arxiv.org/abs/2602.07414v1
- Date: Sat, 07 Feb 2026 07:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.610777
- Title: Can LLMs Truly Embody Human Personality? Analyzing AI and Human Behavior Alignment in Dispute Resolution
- Title(参考訳): LLMは人格を真に具現化できるか? 紛争解決におけるAIと人間の行動アライメントの分析
- Authors: Deuksin Kwon, Kaleen Shrestha, Bin Han, Spencer Lin, James Hale, Jonathan Gratch, Maja Matarić, Gale M. Lucas,
- Abstract要約: 大規模言語モデル (LLMs) は、社会的環境における人間の振る舞いをシミュレートするためにますます使われている。
これらのシミュレーションがヒトで観察される性格行動パターンを再現するかどうかは不明である。
- 参考スコア(独自算出の注目度): 7.599497643290519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used to simulate human behavior in social settings such as legal mediation, negotiation, and dispute resolution. However, it remains unclear whether these simulations reproduce the personality-behavior patterns observed in humans. Human personality, for instance, shapes how individuals navigate social interactions, including strategic choices and behaviors in emotionally charged interactions. This raises the question: Can LLMs, when prompted with personality traits, reproduce personality-driven differences in human conflict behavior? To explore this, we introduce an evaluation framework that enables direct comparison of human-human and LLM-LLM behaviors in dispute resolution dialogues with respect to Big Five Inventory (BFI) personality traits. This framework provides a set of interpretable metrics related to strategic behavior and conflict outcomes. We additionally contribute a novel dataset creation methodology for LLM dispute resolution dialogues with matched scenarios and personality traits with respect to human conversations. Finally, we demonstrate the use of our evaluation framework with three contemporary closed-source LLMs and show significant divergences in how personality manifests in conflict across different LLMs compared to human data, challenging the assumption that personality-prompted agents can serve as reliable behavioral proxies in socially impactful applications. Our work highlights the need for psychological grounding and validation in AI simulations before real-world use.
- Abstract(参考訳): 大規模言語モデル(LLM)は、法的調停、交渉、紛争解決などの社会的環境における人間の振る舞いをシミュレートするために、ますます使われている。
しかし、これらのシミュレーションがヒトで観察される性格・行動パターンを再現するかどうかは不明である。
例えば、人間の個性は、個人が社会的相互作用をナビゲートする方法を形作っている。
LLMは、人格の特徴によって誘発されるとき、人間の対立行動における人格主導の差異を再現できるか?
そこで本研究では,BFI(Big Five Inventory)パーソナリティ特性に関する紛争解決対話において,人間とLLM-LLMの行動を直接比較できる評価フレームワークを提案する。
このフレームワークは、戦略行動や紛争の結果に関連する解釈可能なメトリクスのセットを提供する。
また,LLM紛争解決対話のための新たなデータセット作成手法について提案する。
最後に,同時代の3つのLCMを用いた評価フレームワークの利用を実演し,人的データと異なるLCM間の対立に人格がどう現れるかを示すとともに,社会的影響に富むアプリケーションにおいて,人格を刺激するエージェントが信頼性の高い行動プロキシとして機能する,という仮定に挑戦する。
我々の研究は、現実世界で使われる前に、AIシミュレーションにおける心理的根拠と検証の必要性を強調します。
関連論文リスト
- Emulating Aggregate Human Choice Behavior and Biases with GPT Conversational Agents [0.48439699124726004]
大規模言語モデル(LLM)は、よく知られたバイアスを再現することが示されている。
我々は,3つの確立された意思決定シナリオを会話環境に適応させ,人間の実験を行った。
人間の行動をどのように整合させるかという点において,モデル間に顕著な違いが認められた。
論文 参考訳(メタデータ) (2026-02-05T12:33:05Z) - TwinVoice: A Multi-dimensional Benchmark Towards Digital Twins via LLM Persona Simulation [55.55404595177229]
大型言語モデル(LLM)は、人間のような能力を示す。
TwinVoiceは、さまざまな現実世界のコンテキストにわたるペルソナシミュレーションを評価するためのベンチマークである。
論文 参考訳(メタデータ) (2025-10-29T14:00:42Z) - Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - Evaluating Behavioral Alignment in Conflict Dialogue: A Multi-Dimensional Comparison of LLM Agents and Humans [3.0760465083020345]
大規模言語モデル(LLM)は、社会的に複雑でインタラクション駆動のタスクにますますデプロイされている。
本研究は,対立紛争解決における人格刺激型LDMの行動アライメントを評価する。
論文 参考訳(メタデータ) (2025-09-19T20:15:52Z) - Can Machines Think Like Humans? A Behavioral Evaluation of LLM-Agents in Dictator Games [7.504095239018173]
LLM(Large Language Model)ベースのエージェントは、現実のタスクを担い、人間の社会と関わるようになっている。
独裁者ゲームにおけるAIエージェントの利他的行動に異なるペルソナと実験的フレーミングがどう影響するかを検討する。
LLMに人間のようなアイデンティティを割り当てても、人間のような振る舞いは生じないことを示す。
論文 参考訳(メタデータ) (2024-10-28T17:47:41Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Human vs. Machine: Behavioral Differences Between Expert Humans and Language Models in Wargame Simulations [1.6108153271585284]
大規模言語モデル(LLM)は、高い軍事的意思決定シナリオにおいて、人間と異なる振る舞いを示す。
当社の結果は、自律性を認める前に政策立案者が慎重であること、あるいはAIベースの戦略レコメンデーションに従うことを動機付けています。
論文 参考訳(メタデータ) (2024-03-06T02:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。