論文の概要: Investigating Emergent Goal-Like Behaviour in Large Language Models
Using Experimental Economics
- arxiv url: http://arxiv.org/abs/2305.07970v1
- Date: Sat, 13 May 2023 17:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 18:30:59.686242
- Title: Investigating Emergent Goal-Like Behaviour in Large Language Models
Using Experimental Economics
- Title(参考訳): 実験経済学を用いた大規模言語モデルにおける創発的ゴール様行動の調査
- Authors: Steve Phelps and Yvan I. Russell
- Abstract要約: 社会ジレンマにおける協調的,競争的,利他的,利己的行動の自然言語記述を運用する大規模言語モデル(LLM)の能力について検討する。
我々の焦点は、非ゼロサム相互作用の古典的な例である反復された囚人のジレンマである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we investigate the capacity of large language models (LLMs),
specifically GPT-3.5, to operationalise natural language descriptions of
cooperative, competitive, altruistic, and self-interested behavior in social
dilemmas. Our focus is on the iterated Prisoner's Dilemma, a classic example of
a non-zero-sum interaction, but our broader research program encompasses a
range of experimental economics scenarios, including the ultimatum game,
dictator game, and public goods game. Using a within-subject experimental
design, we instantiated LLM-generated agents with various prompts that conveyed
different cooperative and competitive stances. We then assessed the agents'
level of cooperation in the iterated Prisoner's Dilemma, taking into account
their responsiveness to the cooperative or defection actions of their partners.
Our results provide evidence that LLMs can translate natural language
descriptions of altruism and selfishness into appropriate behaviour to some
extent, but exhibit limitations in adapting their behavior based on conditioned
reciprocity. The observed pattern of increased cooperation with defectors and
decreased cooperation with cooperators highlights potential constraints in the
LLM's ability to generalize its knowledge about human behavior in social
dilemmas. We call upon the research community to further explore the factors
contributing to the emergent behavior of LLM-generated agents in a wider array
of social dilemmas, examining the impact of model architecture, training
parameters, and various partner strategies on agent behavior. As more advanced
LLMs like GPT-4 become available, it is crucial to investigate whether they
exhibit similar limitations or are capable of more nuanced cooperative
behaviors, ultimately fostering the development of AI systems that better align
with human values and social norms.
- Abstract(参考訳): 本研究では,社会的ジレンマにおける協調的,競争的,利他的,利他的行動の自然言語記述を運用するための大規模言語モデル(llm)の能力,特にgpt-3.5について検討する。
我々の焦点は、非ゼロサム相互作用の古典的な例である反復囚人のジレンマであるが、我々の広範な研究プログラムは、最後通算ゲーム、独裁ゲーム、公共財ゲームを含む様々な実験経済シナリオを含んでいる。
実験では,様々なプロンプトを用いてllm生成エージェントをインスタンス化し,協調的および競争的スタンスを伝達した。
そこで我々は,囚人のジレンマを繰り返すエージェントの協力レベルを評価し,パートナーの協力行動や離脱行動に対する反応を考慮に入れた。
その結果、llmは利他主義と利己主義の自然言語記述をある程度適切な行動に翻訳できるが、条件付き相反性に基づく行動適応の限界が示された。
障害者との協力の増大と協力者の協力の減少が観察されたパターンは、社会ジレンマにおける人間の行動に関する知識を一般化するLLMの能力の潜在的な制約を強調している。
我々は,幅広い社会的ジレンマの中で,llm生成エージェントの創発的行動に寄与する要因について,研究コミュニティにさらなる検討を求め,モデルアーキテクチャ,トレーニングパラメータ,エージェント行動に対する様々なパートナー戦略の影響について検討する。
GPT-4のような先進的なLLMが利用可能になるにつれて、それらが類似した制限を示すか、より微妙な協調行動が可能かどうかを調査することが重要であり、最終的には人間の価値観や社会的規範に適合したAIシステムの開発を促進する。
関連論文リスト
- Explaining Decisions of Agents in Mixed-Motive Games [11.792961910129684]
近年,エージェントは自然言語でシームレスにコミュニケーションできるようになっている。
このような環境やシナリオは、説明可能なAIの文脈で調査されることはめったにない。
本研究では,エージェント間の競合,安価なトーク,行動による暗黙的なコミュニケーションに対処するための説明手法を設計する。
論文 参考訳(メタデータ) (2024-07-21T19:56:04Z) - Nicer Than Humans: How do Large Language Models Behave in the Prisoner's Dilemma? [0.1474723404975345]
複数レベルの敵意を示すランダムな敵に対する反復的囚人ジレンマの演奏におけるLlama2の協調行動について検討した。
Llama2は欠陥を起こさない傾向にあるが、協調に慎重なアプローチを採用する。
ヒトの参加者に関する以前の研究と比較すると、Llama2は協調行動に対するより強い傾きを示す。
論文 参考訳(メタデータ) (2024-06-19T14:51:14Z) - A Dialogue Game for Eliciting Balanced Collaboration [64.61707514432533]
本稿では、プレイヤーがゴール状態自体を交渉しなければならない2Dオブジェクト配置ゲームを提案する。
我々は,人間プレイヤーが様々な役割を担っていることを実証的に示し,バランスの取れた協調によってタスクのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-12T13:35:10Z) - Sharing the Cost of Success: A Game for Evaluating and Learning Collaborative Multi-Agent Instruction Giving and Following Policies [19.82683688911297]
本稿では、2人のプレイヤーが視覚と言語の観察を協調する必要がある、挑戦的な対話型参照ゲームを提案する。
本稿では,PPO(Proximal Policy Optimization)の標準設定が,パートナー行動のブートストラップによって高い成功率を達成することを示す。
神経パートナーのペアリングは、繰り返し演奏する際の測定された関節の労力を減少させる。
論文 参考訳(メタデータ) (2024-03-26T08:58:28Z) - GOMA: Proactive Embodied Cooperative Communication via Goal-Oriented Mental Alignment [72.96949760114575]
我々は、ゴール指向メンタルアライメント(GOMA)という新しい協調コミュニケーションフレームワークを提案する。
GOMAは、目標に関連のあるエージェントの精神状態のミスアライメントを最小限に抑える計画問題として、言語コミュニケーションを定式化している。
我々は,Overcooked(マルチプレイヤーゲーム)とVirtualHome(家庭用シミュレータ)の2つの挑戦環境において,強いベースラインに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-03-17T03:52:52Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Tackling Cooperative Incompatibility for Zero-Shot Human-AI Coordination [36.33334853998621]
協調的オープンエンド・ラーニング(COLE)フレームワークを導入し,学習における協調的非互換性を解決する。
COLEは、グラフ理論の観点を用いて、2人のプレイヤーと協調ゲームにおけるオープンエンド目標を定式化し、各戦略の協調能力を評価し、特定する。
我々は,COLEが理論的および経験的分析から協調的不整合性を効果的に克服できることを示した。
論文 参考訳(メタデータ) (2023-06-05T16:51:38Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Hidden Agenda: a Social Deduction Game with Diverse Learned Equilibria [57.74495091445414]
社会的推論ゲームは、個人が他人に関する潜在的に信頼できない情報を合成する方法を学ぶための道を提供する。
本研究では,未知のチームアライメントのシナリオにおいて,学習エージェントを研究するための2D環境を提供する2チームソーシャル推論ゲームであるHidden Agendaを紹介する。
Hidden Agendaで訓練された強化学習エージェントは、自然言語でのコミュニケーションを必要とせずに、協力や投票など、さまざまな行動を学ぶことができることを示した。
論文 参考訳(メタデータ) (2022-01-05T20:54:10Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Loss aversion fosters coordination among independent reinforcement
learners [0.0]
自立型自己学習エージェントにおける協調行動の出現を促進する要因について検討する。
我々は、独立した強化学習エージェントでゲームの2つのバージョンをモデル化する。
我々は,損失回避の導入が,その出現を加速させることで協調を促進することを実験的に証明した。
論文 参考訳(メタデータ) (2019-12-29T11:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。