論文の概要: Social preferences with unstable interactive reasoning: Large language models in economic trust games
- arxiv url: http://arxiv.org/abs/2505.17053v1
- Date: Fri, 16 May 2025 14:45:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.503046
- Title: Social preferences with unstable interactive reasoning: Large language models in economic trust games
- Title(参考訳): 不安定な対話的推論を伴う社会的嗜好--経済信頼ゲームにおける大規模言語モデル
- Authors: Ou Jiamin, Eikmans Emile, Buskens Vincent, Pankowska Paulina, Shan Yuli,
- Abstract要約: ChatGPT-4、Claude、Bardは、プレイヤーが自己利益と信頼と互恵のバランスをとる経済信頼ゲームに配置された。
本研究は, LLMが純粋な自己利益から逸脱し, 特定のペルソナの採用を促すことなく, 信頼と相互性を示すことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have demonstrated remarkable capabilities in understanding human languages, this study explores how they translate this understanding into social exchange contexts that capture certain essences of real world human interactions. Three LLMs - ChatGPT-4, Claude, and Bard - were placed in economic trust games where players balance self-interest with trust and reciprocity, making decisions that reveal their social preferences and interactive reasoning abilities. Our study shows that LLMs deviate from pure self-interest and exhibit trust and reciprocity even without being prompted to adopt a specific persona. In the simplest one-shot interaction, LLMs emulated how human players place trust at the beginning of such a game. Larger human-machine divergences emerged in scenarios involving trust repayment or multi-round interactions, where decisions were influenced by both social preferences and interactive reasoning. LLMs responses varied significantly when prompted to adopt personas like selfish or unselfish players, with the impact outweighing differences between models or game types. Response of ChatGPT-4, in an unselfish or neutral persona, resembled the highest trust and reciprocity, surpassing humans, Claude, and Bard. Claude and Bard displayed trust and reciprocity levels that sometimes exceeded and sometimes fell below human choices. When given selfish personas, all LLMs showed lower trust and reciprocity than humans. Interactive reasoning to the actions of counterparts or changing game mechanics appeared to be random rather than stable, reproducible characteristics in the response of LLMs, though some improvements were observed when ChatGPT-4 responded in selfish or unselfish personas.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間の言語を理解する際、顕著な能力を示してきたが、この理解を現実の人間の相互作用の本質を捉える社会的交換文脈にどのように変換するかを考察した。
3つのLCM - ChatGPT-4、Claude、Bard - は、プレイヤーが社会的嗜好と対話的推論能力を明らかにする決定を行い、信頼と互恵性と自己利益のバランスをとる経済信頼ゲームに置かれた。
本研究は, LLMが純粋な自己利益から逸脱し, 特定のペルソナの採用を促すことなく, 信頼と相互性を示すことを示す。
最も単純なワンショットインタラクションでは、LLMは人間のプレイヤーがそのようなゲームの開始時に信頼を与える方法をエミュレートした。
より大規模な人間と機械の相違は、社会的嗜好と対話的推論の両方に影響された信頼返済や複数ラウンドの相互作用を含むシナリオに現れた。
LLMの反応は、利己的なプレイヤーや非利己的なプレイヤーのようなペルソナを採用するよう促されたときに大きく変化し、モデルやゲームタイプの違いよりも影響が大きかった。
ChatGPT-4の反応は、人間、クロード、バードよりも高い信頼と相互性に類似していた。
クロードとバードは信頼と相互性のレベルを示し、時には人間よりも高く、時には下降した。
自己中心的なペルソナを与えられると、全てのLSMは人間よりも信頼と相互性が低かった。
対戦相手の行動に対する対話的推論やゲームメカニクスの変更は、LLMの反応において、安定的で再現可能な特性よりもランダムなように見えるが、ChatGPT-4が利己的あるいは非利己的なペルソナに反応したとき、いくつかの改善が見られた。
関連論文リスト
- Humans expect rationality and cooperation from LLM opponents in strategic games [0.0]
本研究は,人間の行動の差異に着目した最初の金銭的インセンティブを持つ実験室実験の結果である。
この環境下では,LLMと対戦する被験者は人間よりも有意に少ない数を選択する。
この変化は、主に戦略的推論能力の高い被験者によって引き起こされる。
論文 参考訳(メタデータ) (2025-05-16T09:01:09Z) - Collaborative Storytelling and LLM: A Linguistic Analysis of Automatically-Generated Role-Playing Game Sessions [55.2480439325792]
RPG(ロールプレイングゲーム)とは、プレイヤーが互いに対話して物語を作るゲームである。
この共有物語の新たな形態は、主に口頭で注目されている。
本稿では,大言語モデル(LLM)の言語がRPGセッションの生成を依頼した場合に,どの程度に口頭や書面の機能を示すかを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-03-26T15:10:47Z) - The influence of persona and conversational task on social interactions with a LLM-controlled embodied conversational agent [40.26872152499122]
LLMを仮想人間として具現化することで、ユーザーはバーチャルリアリティーで対面のソーシャルインタラクションを行うことができる。
LLMがコントロールするエージェントとの社会的相互作用における人的・タスク的要因の影響はいまだ不明である。
論文 参考訳(メタデータ) (2024-11-08T15:49:42Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Human vs. Machine: Behavioral Differences Between Expert Humans and Language Models in Wargame Simulations [1.6108153271585284]
大規模言語モデル(LLM)は、高い軍事的意思決定シナリオにおいて、人間と異なる振る舞いを示す。
当社の結果は、自律性を認める前に政策立案者が慎重であること、あるいはAIベースの戦略レコメンデーションに従うことを動機付けています。
論文 参考訳(メタデータ) (2024-03-06T02:23:32Z) - How do Large Language Models Navigate Conflicts between Honesty and
Helpfulness? [14.706111954807021]
人間の振る舞いを特徴付けるための心理モデルと実験を用いて、大きな言語モデルを分析する。
人間のフィードバックからの強化学習は、誠実さと有用性の両方を改善している。
GPT-4 Turboは、会話のフレーミングやリスナーの判断コンテキストに対する感度を含む人間的な応答パターンを実証する。
論文 参考訳(メタデータ) (2024-02-11T19:13:26Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。