論文の概要: The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games?
- arxiv url: http://arxiv.org/abs/2305.07970v2
- Date: Sat, 29 Jun 2024 12:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 18:09:56.656849
- Title: The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games?
- Title(参考訳): 協力の機械心理学:GPTモデルは、経済ゲームにおける利他主義、協力、競争性、利己性を促進することができるか?
- Authors: Steve Phelps, Yvan I. Russell,
- Abstract要約: GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigated the capability of the GPT-3.5 large language model (LLM) to operationalize natural language descriptions of cooperative, competitive, altruistic, and self-interested behavior in two social dilemmas: the repeated Prisoners Dilemma and the one-shot Dictator Game. Using a within-subject experimental design, we used a prompt to describe the task environment using a similar protocol to that used in experimental psychology studies with human subjects. We tested our research question by manipulating the part of our prompt which was used to create a simulated persona with different cooperative and competitive stances. We then assessed the resulting simulacras' level of cooperation in each social dilemma, taking into account the effect of different partner conditions for the repeated game. Our results provide evidence that LLMs can, to some extent, translate natural language descriptions of different cooperative stances into corresponding descriptions of appropriate task behaviour, particularly in the one-shot game. There is some evidence of behaviour resembling conditional reciprocity for the cooperative simulacra in the repeated game, and for the later version of the model there is evidence of altruistic behaviour. Our study has potential implications for using LLM chatbots in task environments that involve cooperation, e.g. using chatbots as mediators and facilitators in public-goods negotiations.
- Abstract(参考訳): GPT-3.5大言語モデル(LLM)の2つの社会的ジレンマにおいて,協調的,競争的,利他的,利他的,利他的行動の自然言語記述を運用する能力について検討した。
そこで本研究では,被験者を対象とした実験心理学研究と同じようなプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
我々は,協力的,競争的な姿勢の異なる模擬ペルソナを作成するために,我々のプロンプトの一部を操作することで,我々の研究課題を検証した。
次に,各社会ジレンマにおけるシミュラクラスの協力レベルを評価し,異なるパートナー条件の影響を考慮に入れた。
この結果から,LLM が様々な協調姿勢の自然言語記述を,特にワンショットゲームにおいて,適切な作業行動の記述に翻訳できることを示す。
繰り返しゲームにおける協調的シミュラクラの条件相似性に類似した振る舞いの証拠がいくつかあり、後期バージョンでは利他的行動の証拠がある。
本研究は,チャットボットを仲介者やファシリテーターとして利用したり,公益交渉を行うようなタスク環境において,LLMチャットボットを活用できる可能性を持っている。
関連論文リスト
- Explaining Decisions of Agents in Mixed-Motive Games [11.792961910129684]
近年,エージェントは自然言語でシームレスにコミュニケーションできるようになっている。
このような環境やシナリオは、説明可能なAIの文脈で調査されることはめったにない。
本研究では,エージェント間の競合,安価なトーク,行動による暗黙的なコミュニケーションに対処するための説明手法を設計する。
論文 参考訳(メタデータ) (2024-07-21T19:56:04Z) - Nicer Than Humans: How do Large Language Models Behave in the Prisoner's Dilemma? [0.1474723404975345]
複数レベルの敵意を示すランダムな敵に対する反復的囚人ジレンマの演奏におけるLlama2の協調行動について検討した。
Llama2は欠陥を起こさない傾向にあるが、協調に慎重なアプローチを採用する。
ヒトの参加者に関する以前の研究と比較すると、Llama2は協調行動に対するより強い傾きを示す。
論文 参考訳(メタデータ) (2024-06-19T14:51:14Z) - A Dialogue Game for Eliciting Balanced Collaboration [64.61707514432533]
本稿では、プレイヤーがゴール状態自体を交渉しなければならない2Dオブジェクト配置ゲームを提案する。
我々は,人間プレイヤーが様々な役割を担っていることを実証的に示し,バランスの取れた協調によってタスクのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-12T13:35:10Z) - Sharing the Cost of Success: A Game for Evaluating and Learning Collaborative Multi-Agent Instruction Giving and Following Policies [19.82683688911297]
本稿では、2人のプレイヤーが視覚と言語の観察を協調する必要がある、挑戦的な対話型参照ゲームを提案する。
本稿では,PPO(Proximal Policy Optimization)の標準設定が,パートナー行動のブートストラップによって高い成功率を達成することを示す。
神経パートナーのペアリングは、繰り返し演奏する際の測定された関節の労力を減少させる。
論文 参考訳(メタデータ) (2024-03-26T08:58:28Z) - GOMA: Proactive Embodied Cooperative Communication via Goal-Oriented Mental Alignment [72.96949760114575]
我々は、ゴール指向メンタルアライメント(GOMA)という新しい協調コミュニケーションフレームワークを提案する。
GOMAは、目標に関連のあるエージェントの精神状態のミスアライメントを最小限に抑える計画問題として、言語コミュニケーションを定式化している。
我々は,Overcooked(マルチプレイヤーゲーム)とVirtualHome(家庭用シミュレータ)の2つの挑戦環境において,強いベースラインに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-03-17T03:52:52Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Tackling Cooperative Incompatibility for Zero-Shot Human-AI Coordination [36.33334853998621]
協調的オープンエンド・ラーニング(COLE)フレームワークを導入し,学習における協調的非互換性を解決する。
COLEは、グラフ理論の観点を用いて、2人のプレイヤーと協調ゲームにおけるオープンエンド目標を定式化し、各戦略の協調能力を評価し、特定する。
我々は,COLEが理論的および経験的分析から協調的不整合性を効果的に克服できることを示した。
論文 参考訳(メタデータ) (2023-06-05T16:51:38Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Hidden Agenda: a Social Deduction Game with Diverse Learned Equilibria [57.74495091445414]
社会的推論ゲームは、個人が他人に関する潜在的に信頼できない情報を合成する方法を学ぶための道を提供する。
本研究では,未知のチームアライメントのシナリオにおいて,学習エージェントを研究するための2D環境を提供する2チームソーシャル推論ゲームであるHidden Agendaを紹介する。
Hidden Agendaで訓練された強化学習エージェントは、自然言語でのコミュニケーションを必要とせずに、協力や投票など、さまざまな行動を学ぶことができることを示した。
論文 参考訳(メタデータ) (2022-01-05T20:54:10Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Loss aversion fosters coordination among independent reinforcement
learners [0.0]
自立型自己学習エージェントにおける協調行動の出現を促進する要因について検討する。
我々は、独立した強化学習エージェントでゲームの2つのバージョンをモデル化する。
我々は,損失回避の導入が,その出現を加速させることで協調を促進することを実験的に証明した。
論文 参考訳(メタデータ) (2019-12-29T11:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。