論文の概要: Do LLM Agents Exhibit Social Behavior?
- arxiv url: http://arxiv.org/abs/2312.15198v2
- Date: Thu, 22 Feb 2024 04:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:13:06.808548
- Title: Do LLM Agents Exhibit Social Behavior?
- Title(参考訳): LLMエージェントは社会行動を抑制するか?
- Authors: Yan Leng, Yuan Yuan
- Abstract要約: 本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
- 参考スコア(独自算出の注目度): 6.018288992619851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advances of Large Language Models (LLMs) are expanding their utility in
both academic research and practical applications. Recent social science
research has explored the use of these ``black-box'' LLM agents for simulating
complex social systems and potentially substituting human subjects in
experiments. Our study delves into this emerging domain, investigating the
extent to which LLMs exhibit key social interaction principles, such as social
learning, social preference, and cooperative behavior (indirect reciprocity),
in their interactions with humans and other agents. We develop a framework for
our study, wherein classical laboratory experiments involving human subjects
are adapted to use LLM agents. This approach involves step-by-step reasoning
that mirrors human cognitive processes and zero-shot learning to assess the
innate preferences of LLMs. Our analysis of LLM agents' behavior includes both
the primary effects and an in-depth examination of the underlying mechanisms.
Focusing on GPT-4, our analyses suggest that LLM agents appear to exhibit a
range of human-like social behaviors such as distributional and reciprocity
preferences, responsiveness to group identity cues, engagement in indirect
reciprocity, and social learning capabilities. However, our analysis also
reveals notable differences: LLMs demonstrate a pronounced fairness preference,
weaker positive reciprocity, and a more calculating approach in social learning
compared to humans. These insights indicate that while LLMs hold great promise
for applications in social science research, such as in laboratory experiments
and agent-based modeling, the subtle behavioral differences between LLM agents
and humans warrant further investigation. Careful examination and development
of protocols in evaluating the social behaviors of LLMs are necessary before
directly applying these models to emulate human behavior.
- Abstract(参考訳): 大規模言語モデル(llm)の進歩は、学術研究と実用的な応用の両方においてその有用性を拡大している。
最近の社会科学研究は、複雑な社会システムをシミュレートし、実験中に人体を置換する「ブラックボックス」のLLMエージェントの使用を探求している。
本研究は, LLMが社会学習, 社会的嗜好, 協調行動(間接的相互性)といった社会的相互作用の原理が, 人間や他のエージェントとの相互作用においてどの程度重要かを調べることを目的とする。
本研究の枠組みは,人体を用いた古典的な実験室実験をLLM剤の使用に適応させるものである。
このアプローチには、人間の認知過程を反映するステップバイステップの推論と、LLMの自然選好を評価するゼロショット学習が含まれる。
LLMエージェントの挙動分析には, 一次効果と基礎メカニズムの詳細な検討の両方が含まれる。
GPT-4に着目して, LLMエージェントは, 分布的・相互性選好, グループアイデンティティへの応答性, 間接的相互性への関与, 社会学習能力など, 多様な社会的行動を示すと考えられる。
しかし、我々の分析は顕著な違いも示している: LLMは明らかに公正な好みを示し、正の相反性が弱く、社会学習において人間に比べてより計算的なアプローチを示す。
これらの知見は、LLMが実験室実験やエージェントベースモデリングなどの社会科学研究への応用に大いに貢献する一方で、LLMエージェントと人間の微妙な行動の違いがさらなる調査を保証していることを示している。
これらのモデルを直接適用して人間の行動をエミュレートする前に、llmの社会的行動を評価するプロトコルの慎重に検討と開発が必要である。
関連論文リスト
- Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Shall We Talk: Exploring Spontaneous Collaborations of Competing LLM
Agents [19.674533284592094]
大規模言語モデル(LLM)は,明示的な指示がなければ,自発的に協調関係を確立することができることを示す。
この発見は、人間社会における競争と協力を模倣するLLMエージェントの能力を示すものである。
LLMエージェントは、自発的なコラボレーションを含む、人間の社会的相互作用をモデル化するために使用できることを示唆している。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Can Large Language Model Agents Simulate Human Trust Behaviors? [75.69583811834073]
大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。
本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Systematic Biases in LLM Simulations of Debates [14.12892960275563]
本研究では,人間の相互作用をシミュレーションする際のLLM(Large Language Models)の限界を明らかにする。
以上の結果から,LLMエージェントが特定の政治的視点から議論される一方で,モデル固有の社会的バイアスに適合する傾向が示唆された。
この傾向は、人間の間で確立された社会的ダイナミクスから逸脱しているように見える行動パターンをもたらす。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology
View [64.43238868957813]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Investigating Emergent Goal-Like Behaviour in Large Language Models
Using Experimental Economics [0.0]
社会ジレンマにおける協調的,競争的,利他的,利己的行動の自然言語記述を運用する大規模言語モデル(LLM)の能力について検討する。
我々の焦点は、非ゼロサム相互作用の古典的な例である反復された囚人のジレンマである。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。