論文の概要: Effects of personality steering on cooperative behavior in Large Language Model agents
- arxiv url: http://arxiv.org/abs/2601.05302v2
- Date: Wed, 14 Jan 2026 12:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 14:49:40.996771
- Title: Effects of personality steering on cooperative behavior in Large Language Model agents
- Title(参考訳): 大規模言語モデルエージェントの協調行動に及ぼすパーソナリティ・ステアリングの影響
- Authors: Mizuki Sakai, Mizuki Yokoyama, Wakaba Tateishi, Genki Ichinose,
- Abstract要約: 大規模言語モデル(LLM)におけるパーソナリティステアリングが協調行動に及ぼす影響を,Prisoner's Dilemmaゲームを用いて検討した。
以上の結果から,すべてのモデルにおける協力を促進する要因として,一致性が重要であることが示唆された。
露骨な人格情報は協力を増すが、搾取に対する脆弱性も引き起こす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) are increasingly used as autonomous agents in strategic and social interactions. Although recent studies suggest that assigning personality traits to LLMs can influence their behavior, how personality steering affects cooperation under controlled conditions remains unclear. In this study, we examine the effects of personality steering on cooperative behavior in LLM agents using repeated Prisoner's Dilemma games. Based on the Big Five framework, we first measure basic personality scores of three models, GPT-3.5-turbo, GPT-4o, and GPT-5, using the Big Five Inventory. We then compare behavior under baseline and personality-informed conditions, and further analyze the effects of independently manipulating each personality dimension to extreme values. Our results show that agreeableness is the dominant factor promoting cooperation across all models, while other personality traits have limited impact. Explicit personality information increases cooperation but can also raise vulnerability to exploitation, particularly in earlier-generation models. In contrast, later-generation models exhibit more selective cooperation. These findings indicate that personality steering acts as a behavioral bias rather than a deterministic control mechanism.
- Abstract(参考訳): 大規模言語モデル(LLM)は、戦略的および社会的相互作用において、自律的なエージェントとしてますます使われている。
近年の研究では、LLMに人格特性を割り当てることが彼らの行動に影響を与えることが示唆されているが、人格ステアリングが制御された条件下での協調にどのように影響するかは明らかでない。
本研究では,パーソナリティ・ステアリングがLLMエージェントの協調行動に及ぼす影響を,繰り返し行われる囚人のジレンマゲームを用いて検討した。
まず,ビッグファイブ・インベントリ(Big Five Inventory)を用いて,GPT-3.5-turbo,GPT-4o,GPT-5の3モデルの基本的パーソナリティスコアを測定した。
次に,基本条件と人格インフォームド条件下での行動を比較し,各個性次元を極値に独立に操作する効果を解析する。
以上の結果から,すべてのモデル間の協力を促進する要因は一致性であり,他のパーソナリティ特性には影響が限られていることが明らかとなった。
露骨な性格情報は協力を増すが、特に先代のモデルにおいて、搾取に対する脆弱性を生じさせる可能性がある。
対照的に、後期モデルはより選択的に協調する。
これらの結果から,人格管理は決定論的制御機構よりも行動バイアスとして機能することが示唆された。
関連論文リスト
- Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs [60.15472325639723]
人格特性は、人間の行動の予測因子として長い間研究されてきた。
近年のLarge Language Models (LLM) は, 人工システムに類似したパターンが出現する可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-03T21:27:10Z) - SAC: A Framework for Measuring and Inducing Personality Traits in LLMs with Dynamic Intensity Control [1.9282110216621835]
大規模言語モデル(LLM)は近年,幅広い分野において大きな注目を集めている。
また、対話中に人間のような個性を表示するという期待も高まりつつある。
既存のモデルは2つの大きな制限に直面している。それらは、粗いパーソナリティ次元のみを提供するBig Five (OCEAN)フレームワークに依存しており、特性強度を制御するメカニズムが欠如している。
論文 参考訳(メタデータ) (2025-06-26T04:12:15Z) - Identifying Cooperative Personalities in Multi-agent Contexts through Personality Steering with Representation Engineering [0.0]
大規模言語モデル(LLM)は自律的な能力を獲得し、マルチエージェント設定での調整がますます重要になる。
Axelrod's Iterated Prisoner's Dilemma (IPD) トーナメントに触発された我々は、パーソナリティ特性がLDMの協力にどのように影響するかを探求する。
表現工学を用いて, LLMにおけるビッグファイブの特徴(例えば, 理解性, 良心性)を把握し, IPD意思決定への影響を解析する。
論文 参考訳(メタデータ) (2025-03-17T01:21:54Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - P-React: Synthesizing Topic-Adaptive Reactions of Personality Traits via Mixture of Specialized LoRA Experts [34.374681921626205]
我々は、専門家(MoE)をベースとしたパーソナライズされた大規模言語モデルであるP-Reactを提案する。
特に、パーソナリティ・ロス(PSL)を統合して、個々の特徴表現をよりよく捉えます。
この分野での研究を容易にするため、高品質で人間認証されたデータセットであるOCEAN-Chatをキュレートする。
論文 参考訳(メタデータ) (2024-06-18T12:25:13Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。