論文の概要: Can Large Language Model Agents Simulate Human Trust Behaviors?
- arxiv url: http://arxiv.org/abs/2402.04559v1
- Date: Wed, 7 Feb 2024 03:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:53:42.850588
- Title: Can Large Language Model Agents Simulate Human Trust Behaviors?
- Title(参考訳): 大規模言語モデルエージェントは人間の信頼行動をシミュレートできるか?
- Authors: Chengxing Xie, Canyu Chen, Feiran Jia, Ziyu Ye, Kai Shu, Adel Bibi,
Ziniu Hu, Philip Torr, Bernard Ghanem, Guohao Li
- Abstract要約: 大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。
本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
- 参考スコア(独自算出の注目度): 75.69583811834073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) agents have been increasingly adopted as
simulation tools to model humans in applications such as social science.
However, one fundamental question remains: can LLM agents really simulate human
behaviors? In this paper, we focus on one of the most critical behaviors in
human interactions, trust, and aim to investigate whether or not LLM agents can
simulate human trust behaviors. We first find that LLM agents generally exhibit
trust behaviors, referred to as agent trust, under the framework of Trust
Games, which are widely recognized in behavioral economics. Then, we discover
that LLM agents can have high behavioral alignment with humans regarding trust
behaviors, indicating the feasibility to simulate human trust behaviors with
LLM agents. In addition, we probe into the biases in agent trust and the
differences in agent trust towards agents and humans. We also explore the
intrinsic properties of agent trust under conditions including advanced
reasoning strategies and external manipulations. We further offer important
implications for various scenarios where trust is paramount. Our study
represents a significant step in understanding the behaviors of LLM agents and
the LLM-human analogy.
- Abstract(参考訳): 大規模言語モデル(llm)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとしてますます採用されている。
LLMエージェントは本当に人間の行動をシミュレートできるか?
本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
まず, LLMエージェントは一般に, 行動経済学において広く認知されている信頼ゲーム(Trust Games)の枠組みの下で, エージェント信頼と呼ばれる信頼行動を示す。
そして, LLMエージェントは信頼行動に関して人間と高い行動アライメントを持ち, LLMエージェントによる人間信頼行動のシミュレートの可能性を示す。
さらに,エージェント信頼のバイアスとエージェントと人間に対するエージェント信頼の差について検討した。
また,エージェント信頼の本質的性質を,高度な推論戦略や外部操作を含む条件下で検討する。
信頼が最重要であるさまざまなシナリオに対して、さらに重要な意味を提供する。
本研究は, LLMエージェントの挙動とLLM-ヒト類似性を理解するための重要なステップである。
関連論文リスト
- LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - TrustAgent: Towards Safe and Trustworthy LLM-based Agents through Agent
Constitution [48.84353890821038]
本稿では, エージェント・コンスティチューションをベースとしたエージェント・フレームワークであるTrustAgentについて述べる。
本研究では,計画立案戦略が計画立案に先立ってどのように安全知識を注入するか,計画立案戦略が計画立案時の安全性を高めること,計画立案後の検査による安全性を確保することを実証する。
我々は,安全性と利便性の複雑な関係,およびモデル推論能力と安全エージェントとしての有効性について検討する。
論文 参考訳(メタデータ) (2024-02-02T17:26:23Z) - Open Models, Closed Minds? On Agents Capabilities in Mimicking Human
Personalities through Open Large Language Models [5.50945771438776]
本研究の目的は,オープンLLMを用いて人格をエミュレートするエージェントの能力を総合的に検証することである。
我々は,最も代表的なオープンモデルに基づいて10個のLLMエージェントを生成し,マイアーズ・ブリッグス型指標(MBTI)テストに関する一連の評価を行う。
提案手法は,オープンLLMエージェントの本質的な性格特性の評価と,特定の個性や役割によって条件付けられた場合に,これらのエージェントが人格を模倣できる程度を判断することである。
論文 参考訳(メタデータ) (2024-01-13T16:41:40Z) - How Far Are We from Believable AI Agents? A Framework for Evaluating the
Believability of Human Behavior Simulation [49.1914375451351]
我々は,AIエージェントの信頼性を評価するための2つの指標,一貫性と堅牢性,およびベンチマークであるSimulateBenchを紹介する。
エージェント (i) が長文入力を提示した場合の文字情報の正確な描写に苦慮していること, (ii) プロファイルの摂動に対する脆弱性を示すこと, (iii) 全体としての信頼性に影響を及ぼす重要な要因に大きく影響していること,などが判明した。
論文 参考訳(メタデータ) (2023-12-28T16:51:11Z) - Do LLM Agents Exhibit Social Behavior? [6.018288992619851]
本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Towards Machines that Trust: AI Agents Learn to Trust in the Trust Game [11.788352764861369]
我々は,行動科学と脳科学の信頼を研究するための標準的な課題である$textittrust game$について理論的に分析する。
具体的には、強化学習を利用してAIエージェントを訓練し、このタスクの様々なパラメータ化の下で学習信頼を調査する。
提案したシミュレーション結果と相関する理論解析は,信頼ゲームにおける信頼の出現に関する数学的基礎を提供する。
論文 参考訳(メタデータ) (2023-12-20T09:32:07Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。