論文の概要: Do LLM Agents Exhibit Social Behavior?
- arxiv url: http://arxiv.org/abs/2312.15198v1
- Date: Sat, 23 Dec 2023 08:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 19:12:45.135656
- Title: Do LLM Agents Exhibit Social Behavior?
- Title(参考訳): LLMエージェントは社会行動を抑制するか?
- Authors: Yan Leng, Yuan Yuan
- Abstract要約: 本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
- 参考スコア(独自算出の注目度): 6.018288992619851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advances of Large Language Models (LLMs) are expanding their utility in
both academic research and practical applications. Recent social science
research has explored the use of these "black-box" LLM agents for simulating
complex social systems and potentially substituting human subjects in
experiments. Our study delves into this emerging domain, investigating the
extent to which LLMs exhibit key social interaction principles, such as social
learning, social preference, and cooperative behavior, in their interactions
with humans and other agents. We develop a novel framework for our study,
wherein classical laboratory experiments involving human subjects are adapted
to use LLM agents. This approach involves step-by-step reasoning that mirrors
human cognitive processes and zero-shot learning to assess the innate
preferences of LLMs. Our analysis of LLM agents' behavior includes both the
primary effects and an in-depth examination of the underlying mechanisms.
Focusing on GPT-4, the state-of-the-art LLM, our analyses suggest that LLM
agents appear to exhibit a range of human-like social behaviors such as
distributional and reciprocity preferences, responsiveness to group identity
cues, engagement in indirect reciprocity, and social learning capabilities.
However, our analysis also reveals notable differences: LLMs demonstrate a
pronounced fairness preference, weaker positive reciprocity, and a more
calculating approach in social learning compared to humans. These insights
indicate that while LLMs hold great promise for applications in social science
research, such as in laboratory experiments and agent-based modeling, the
subtle behavioral differences between LLM agents and humans warrant further
investigation. Careful examination and development of protocols in evaluating
the social behaviors of LLMs are necessary before directly applying these
models to emulate human behavior.
- Abstract(参考訳): 大規模言語モデル(llm)の進歩は、学術研究と実用的な応用の両方においてその有用性を拡大している。
近年の社会科学研究は、複雑な社会システムをシミュレートし、実験中に人体を置換するための「ブラックボックス」LLMエージェントの使用を探求している。
本研究は,人間や他のエージェントとのインタラクションにおいて,LLMが社会学習,社会的嗜好,協調行動などの社会的相互作用の原則をどの程度発揮しているかを考察する。
本研究は,人体を用いた古典的な実験室実験をLLM剤の使用に適応させる新しい枠組みを開発する。
このアプローチには、人間の認知過程を反映するステップバイステップの推論と、LLMの自然選好を評価するゼロショット学習が含まれる。
LLMエージェントの挙動分析には, 一次効果と基礎メカニズムの詳細な検討の両方が含まれる。
現状のLDMであるGPT-4に着目し, LLMエージェントは, 分布的・相互性選好, グループ同一性への応答性, 間接的相互性への関与, 社会学習能力など, 多様な社会的行動を示すことが示唆された。
しかし、我々の分析は顕著な違いも示している: LLMは明らかに公正な好みを示し、正の相反性が弱く、社会学習において人間に比べてより計算的なアプローチを示す。
これらの知見は、LLMが実験室実験やエージェントベースモデリングなどの社会科学研究への応用に大いに貢献する一方で、LLMエージェントと人間の微妙な行動の違いがさらなる調査を保証していることを示している。
これらのモデルを直接適用して人間の行動をエミュレートする前に、llmの社会的行動を評価するプロトコルの慎重に検討と開発が必要である。
関連論文リスト
- Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得能力を示す。
本研究では,相互接続型ユーザにおけるLCMの社会的影響と複雑な意見力学について検討する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - GLEE: A Unified Framework and Benchmark for Language-based Economic Environments [19.366120861935105]
大規模言語モデル(LLM)は、経済的および戦略的相互作用において大きな可能性を示す。
これらの疑問は、LLMベースのエージェントを実世界のデータ駆動システムに統合することの経済的および社会的意味について重要なものとなっている。
本稿では,2プレイヤー,シーケンシャル,言語ベースのゲームの研究を標準化するためのベンチマークを紹介する。
論文 参考訳(メタデータ) (2024-10-07T17:55:35Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - SurveyLM: A platform to explore emerging value perspectives in augmented
language models' behaviors [0.4724825031148411]
本稿では,拡張言語モデル(ALM)の創発的アライメント行動を分析するプラットフォームであるSurveyLMについて述べる。
従来社会行動研究に用いられてきた調査・実験手法を応用し,ALMを体系的に評価する。
我々は,ALMの創発的行動に影響を与える要因に光を当てること,人間の意図や期待との整合性を促進すること,高度社会AIシステムの開発と展開に寄与することを目的としている。
論文 参考訳(メタデータ) (2023-08-01T12:59:36Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。