論文の概要: Effects of personality steering on cooperative behavior in Large Language Model agents
- arxiv url: http://arxiv.org/abs/2601.05302v2
- Date: Wed, 14 Jan 2026 12:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 14:49:40.996771
- Title: Effects of personality steering on cooperative behavior in Large Language Model agents
- Title(参考訳): 大規模言語モデルエージェントの協調行動に及ぼすパーソナリティ・ステアリングの影響
- Authors: Mizuki Sakai, Mizuki Yokoyama, Wakaba Tateishi, Genki Ichinose,
- Abstract要約: 大規模言語モデル(LLM)におけるパーソナリティステアリングが協調行動に及ぼす影響を,Prisoner's Dilemmaゲームを用いて検討した。
以上の結果から,すべてのモデルにおける協力を促進する要因として,一致性が重要であることが示唆された。
露骨な人格情報は協力を増すが、搾取に対する脆弱性も引き起こす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are increasingly used as autonomous agents in strategic and social interactions. Although recent studies suggest that assigning personality traits to LLMs can influence their behavior, how personality steering affects cooperation under controlled conditions remains unclear. In this study, we examine the effects of personality steering on cooperative behavior in LLM agents using repeated Prisoner's Dilemma games. Based on the Big Five framework, we first measure basic personality scores of three models, GPT-3.5-turbo, GPT-4o, and GPT-5, using the Big Five Inventory. We then compare behavior under baseline and personality-informed conditions, and further analyze the effects of independently manipulating each personality dimension to extreme values. Our results show that agreeableness is the dominant factor promoting cooperation across all models, while other personality traits have limited impact. Explicit personality information increases cooperation but can also raise vulnerability to exploitation, particularly in earlier-generation models. In contrast, later-generation models exhibit more selective cooperation. These findings indicate that personality steering acts as a behavioral bias rather than a deterministic control mechanism.
- Abstract(参考訳): 大規模言語モデル(LLM)は、戦略的および社会的相互作用において、自律的なエージェントとしてますます使われている。
近年の研究では、LLMに人格特性を割り当てることが彼らの行動に影響を与えることが示唆されているが、人格ステアリングが制御された条件下での協調にどのように影響するかは明らかでない。
本研究では,パーソナリティ・ステアリングがLLMエージェントの協調行動に及ぼす影響を,繰り返し行われる囚人のジレンマゲームを用いて検討した。
まず,ビッグファイブ・インベントリ(Big Five Inventory)を用いて,GPT-3.5-turbo,GPT-4o,GPT-5の3モデルの基本的パーソナリティスコアを測定した。
次に,基本条件と人格インフォームド条件下での行動を比較し,各個性次元を極値に独立に操作する効果を解析する。
以上の結果から,すべてのモデル間の協力を促進する要因は一致性であり,他のパーソナリティ特性には影響が限られていることが明らかとなった。
露骨な性格情報は協力を増すが、特に先代のモデルにおいて、搾取に対する脆弱性を生じさせる可能性がある。
対照的に、後期モデルはより選択的に協調する。
これらの結果から,人格管理は決定論的制御機構よりも行動バイアスとして機能することが示唆された。
関連論文リスト
- Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs [60.15472325639723]
人格特性は、人間の行動の予測因子として長い間研究されてきた。
近年のLarge Language Models (LLM) は, 人工システムに類似したパターンが出現する可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-03T21:27:10Z) - Identifying Cooperative Personalities in Multi-agent Contexts through Personality Steering with Representation Engineering [0.0]
大規模言語モデル(LLM)は自律的な能力を獲得し、マルチエージェント設定での調整がますます重要になる。
Axelrod's Iterated Prisoner's Dilemma (IPD) トーナメントに触発された我々は、パーソナリティ特性がLDMの協力にどのように影響するかを探求する。
表現工学を用いて, LLMにおけるビッグファイブの特徴(例えば, 理解性, 良心性)を把握し, IPD意思決定への影響を解析する。
論文 参考訳(メタデータ) (2025-03-17T01:21:54Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - P-React: Synthesizing Topic-Adaptive Reactions of Personality Traits via Mixture of Specialized LoRA Experts [34.374681921626205]
我々は、専門家(MoE)をベースとしたパーソナライズされた大規模言語モデルであるP-Reactを提案する。
特に、パーソナリティ・ロス(PSL)を統合して、個々の特徴表現をよりよく捉えます。
この分野での研究を容易にするため、高品質で人間認証されたデータセットであるOCEAN-Chatをキュレートする。
論文 参考訳(メタデータ) (2024-06-18T12:25:13Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。