論文の概要: Value-Based Large Language Model Agent Simulation for Mutual Evaluation of Trust and Interpersonal Closeness
- arxiv url: http://arxiv.org/abs/2507.11979v1
- Date: Wed, 16 Jul 2025 07:21:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.273899
- Title: Value-Based Large Language Model Agent Simulation for Mutual Evaluation of Trust and Interpersonal Closeness
- Title(参考訳): 信頼と対人親密性の相互評価のための価値ベース大規模言語モデルエージェントシミュレーション
- Authors: Yuki Sakamoto, Takahisa Uchida, Hiroshi Ishiguro,
- Abstract要約: 大規模言語モデル(LLM)は、人間のようなエージェントを用いて複雑な社会現象をシミュレートする強力なツールとして登場した。
本研究では, 2つの実験により, LLMエージェント間の関係構築に及ぼす値類似性の影響について検討した。
- 参考スコア(独自算出の注目度): 3.293744007011733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have emerged as powerful tools for simulating complex social phenomena using human-like agents with specific traits. In human societies, value similarity is important for building trust and close relationships; however, it remains unexplored whether this principle holds true in artificial societies comprising LLM agents. Therefore, this study investigates the influence of value similarity on relationship-building among LLM agents through two experiments. First, in a preliminary experiment, we evaluated the controllability of values in LLMs to identify the most effective model and prompt design for controlling the values. Subsequently, in the main experiment, we generated pairs of LLM agents imbued with specific values and analyzed their mutual evaluations of trust and interpersonal closeness following a dialogue. The experiments were conducted in English and Japanese to investigate language dependence. The results confirmed that pairs of agents with higher value similarity exhibited greater mutual trust and interpersonal closeness. Our findings demonstrate that the LLM agent simulation serves as a valid testbed for social science theories, contributes to elucidating the mechanisms by which values influence relationship building, and provides a foundation for inspiring new theories and insights into the social sciences.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間のようなエージェントを特定の特徴を持つ複雑な社会現象をシミュレートするための強力なツールとして登場した。
人間社会では、信頼と密接な関係を構築する上で価値の類似性は重要であるが、LLMエージェントを含む人工社会において、この原則が真であるか否かは未解明のままである。
そこで本研究では,LLMエージェント間の関係構築に及ぼす値類似性の影響を2つの実験により検討した。
まず、予備実験において、LLMにおける値の制御性を評価し、最も有効なモデルを特定し、値を制御するための設計を促す。
その後、本実験では、特定の値を入力したLLMエージェントのペアを生成し、対話後の信頼度と対人親密度を相互に評価した。
実験は英語と日本語で行われ、言語依存を調査した。
その結果, 同一性が高いエージェントのペアは, 相互信頼と対人親密性が高いことがわかった。
以上の結果から, LLMエージェントシミュレーションは社会科学理論の有効なテストベッドとして機能し, 価値が関係構築に影響を与えるメカニズムの解明に寄与し, 社会科学に新たな理論や洞察をもたらす基盤となることが示唆された。
関連論文リスト
- How large language models judge and influence human cooperation [82.07571393247476]
我々は、最先端の言語モデルが協調行動をどのように判断するかを評価する。
我々は、善良な相手との協力を評価する際、顕著な合意を守ります。
モデル間の差異が協調の頻度に大きく影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2025-06-30T09:14:42Z) - Don't Trust Generative Agents to Mimic Communication on Social Networks Unless You Benchmarked their Empirical Realism [1.734165485480267]
我々は,大規模言語モデルを用いて,ソーシャルネットワーク利用者の行動の再現に重点を置いている。
我々は、英語とドイツ語でユーザ動作を模倣する様々なアプローチを経験的にテストした。
本研究は, シミュレーション部品が装着された環境で測定された経験的現実性によって, 社会シミュレーションを検証すべきであることを示唆している。
論文 参考訳(メタデータ) (2025-06-27T07:32:16Z) - Modeling Earth-Scale Human-Like Societies with One Billion Agents [54.465233996410156]
Light Societyはエージェントベースのシミュレーションフレームワークである。
社会的プロセスはエージェントと環境状態の構造的遷移として形式化される。
10億以上のエージェントによる社会の効率的なシミュレーションを支援する。
論文 参考訳(メタデータ) (2025-06-07T09:14:12Z) - The Traitors: Deception and Trust in Multi-Agent Language Model Simulations [0.0]
ソーシャル・デダクション・ゲームに触発されたマルチエージェント・シミュレーション・フレームワークであるThe Traitorsを紹介した。
我々は,詐欺の成功,信頼ダイナミクス,集団推論品質を計測する評価指標のスイートを開発する。
DeepSeek-V3, GPT-4o-mini, GPT-4o(モデル毎に10回の走行)による実験では, 顕著な非対称性が示された。
論文 参考訳(メタデータ) (2025-05-19T10:01:35Z) - A closer look at how large language models trust humans: patterns and biases [0.0]
大規模言語モデル(LLM)とLLMベースのエージェントは、意思決定の文脈で人間と対話する傾向にある。
LLMは、意思決定を支援し、影響を及ぼすために、信頼に関連するコンテキストに対して、ある種の暗黙の効果的な信頼に依存しています。
我々は, LLMの信頼が, 人類の能力, 善意, 完全性の3つの主要な信頼性の側面に依存しているかどうかを考察する。
ほとんどのケースにおいて、LDMの信頼は信頼性によって強く予測され、場合によっては年齢、宗教、性別にも偏っている。
論文 参考訳(メタデータ) (2025-04-22T11:31:50Z) - Measuring and identifying factors of individuals' trust in Large Language Models [0.0]
LLM(Large Language Models)は、人間のように見える会話の交換を行う。
LLMに対する個人の信頼度を測定する新しいフレームワークとして、TILLMI(Trust-In-LLMs Index)を紹介した。
論文 参考訳(メタデータ) (2025-02-28T13:16:34Z) - Large Language Models as Theory of Mind Aware Generative Agents with Counterfactual Reflection [31.38516078163367]
ToM-agentは、オープンドメインの会話相互作用において、LLMベースの生成エージェントがToMをシミュレートできるように設計されている。
ToM-Adntは、精神状態に対するエージェントの認識のエミュレーションを促進するため、精神状態からの信頼を解き放つ。
以上の結果から,ToM-agentは,意味的情緒的支援や意思決定に限らず,相手の行動の根底にある要因を把握できることが示唆された。
論文 参考訳(メタデータ) (2025-01-26T00:32:38Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。