論文の概要: How Personality Traits Shape LLM Risk-Taking Behaviour
- arxiv url: http://arxiv.org/abs/2503.04735v1
- Date: Mon, 03 Feb 2025 14:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 11:16:15.529277
- Title: How Personality Traits Shape LLM Risk-Taking Behaviour
- Title(参考訳): パーソナリティはどのようにしてLSMのリスクテーキング行動を形成するか
- Authors: John Hartley, Conor Hamill, Devesh Batra, Dale Seddon, Ramin Okhrati, Raad Khraishi,
- Abstract要約: 本研究では,大規模言語モデルの性格特性とリスク確率の関係について検討した。
GPT-4oは,ヒトの平均値と比較して,良性・可愛性特性が高い。
開放性はGPT-4oのリスク確率の最も大きな要因として現れ、ヒトの発見と一致している。
- 参考スコア(独自算出の注目度): 0.5937476291232802
- License:
- Abstract: Large Language Models (LLMs) are increasingly deployed as autonomous agents, necessitating a deeper understanding of their decision-making behaviour under risk. This study investigates the relationship between LLMs' personality traits and risk propensity, employing cumulative prospect theory (CPT) and the Big Five personality framework. We focus on GPT-4o, comparing its behaviour to human baselines and earlier models. Our findings reveal that GPT-4o exhibits higher Conscientiousness and Agreeableness traits compared to human averages, while functioning as a risk-neutral rational agent in prospect selection. Interventions on GPT-4o's Big Five traits, particularly Openness, significantly influence its risk propensity, mirroring patterns observed in human studies. Notably, Openness emerges as the most influential factor in GPT-4o's risk propensity, aligning with human findings. In contrast, legacy models like GPT-4-Turbo demonstrate inconsistent generalization of the personality-risk relationship. This research advances our understanding of LLM behaviour under risk and elucidates the potential and limitations of personality-based interventions in shaping LLM decision-making. Our findings have implications for the development of more robust and predictable AI systems such as financial modelling.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自律的なエージェントとしてますますデプロイされ、リスク下の意思決定行動についてより深く理解する必要がある。
本研究では, 累積予測理論(CPT)とビッグファイブ・パーソナリティ・フレームワークを用いて, LLMの性格特性とリスク適合性との関係について検討した。
我々は、GPT-4oに着目し、その振る舞いを人間のベースラインや以前のモデルと比較する。
以上の結果から, GPT-4oは, リスクニュートラルな有理性エージェントとして機能する一方で, 人間の平均よりも高い良性・可愛性特性を示すことが明らかとなった。
GPT-4oのビッグファイブの特徴、特にオープンネスへの介入は、人間の研究で観察されたリスク確率、ミラーリングパターンに大きな影響を及ぼした。
特に、オープンネスはGPT-4oのリスク確率に最も影響を及ぼす要因として現れ、ヒトの発見と一致している。
対照的に、GPT-4-Turboのようなレガシーモデルは、パーソナリティとリスクの関係の矛盾した一般化を示している。
本研究は、リスク下のLCM行動の理解を深め、LCM意思決定を形作るためのパーソナリティに基づく介入の可能性と限界を解明する。
我々の発見は、金融モデリングのようなより堅牢で予測可能なAIシステムの開発に影響を及ぼす。
関連論文リスト
- Do LLM Personas Dream of Bull Markets? Comparing Human and AI Investment Strategies Through the Lens of the Five-Factor Model [0.3495246564946556]
大きな言語モデル(LLM)は、人格を採用し、人間のように振る舞う能力を示している。
本研究は,人格特性が同一である人間と類似した,特定の5つの人格プロファイルを持つLLMペルソナが投資業務を行うか否かを検討した。
LLMは, 学習スタイル, 衝動性, リスク食欲という3つの領域において, 特性を予測行動に一般化することができることがわかった。
論文 参考訳(メタデータ) (2024-10-28T02:50:41Z) - Beyond Words: On Large Language Models Actionability in Mission-Critical Risk Analysis [7.098487130130114]
リスク分析の原則はコンテキストレスです。
リスク分析には、国内外の規制や基準に関する膨大な知識が必要である。
大規模な言語モデルは、人間よりも少ない時間で情報を素早く要約することができ、特定のタスクに微調整することができる。
論文 参考訳(メタデータ) (2024-06-11T19:20:27Z) - Decision-Making Behavior Evaluation Framework for LLMs under Uncertain Context [5.361970694197912]
本稿では,大規模言語モデル(LLM)の意思決定行動を評価するための行動経済学に基づく枠組みを提案する。
本稿では,ChatGPT-4.0-Turbo,Claude-3-Opus,Gemini-1.0-proの3つの商用LCMにおけるリスク嗜好,確率重み付け,損失回避の程度を推定する。
以上の結果から,LSMはリスク回避や損失回避といった人間に類似したパターンを呈し,その傾向は小さすぎることが示唆された。
論文 参考訳(メタデータ) (2024-06-10T02:14:19Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Personality testing of Large Language Models: Limited temporal stability, but highlighted prosociality [0.0]
大きな言語モデル(LLM)は、人間のような特徴と、ユーザに提供する親密さによって人気を博している。
本研究は,人格楽器に対する時間的安定度と時間的合意度を2点に評価することを目的とした。
短時間でLSMs反応において, レーザー間一致のレベルが異なることが判明した。
論文 参考訳(メタデータ) (2023-06-07T10:14:17Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z) - Two steps to risk sensitivity [4.974890682815778]
条件付きバリュー・アット・リスク(CVaR)は、人間と動物の計画のモデル化のためのリスク尺度である。
CVaRに対する従来の分布的アプローチを逐次的に導入し、人間の意思決定者の選択を再分析する。
次に,リスク感度,すなわち時間的整合性,さらに重要な特性について考察し,CVaRの代替案を示す。
論文 参考訳(メタデータ) (2021-11-12T16:27:47Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。