論文の概要: The Personality Trap: How LLMs Embed Bias When Generating Human-Like Personas
- arxiv url: http://arxiv.org/abs/2602.03334v1
- Date: Tue, 03 Feb 2026 10:00:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.379301
- Title: The Personality Trap: How LLMs Embed Bias When Generating Human-Like Personas
- Title(参考訳): パーソナリティトラップ:LLMが人間のようなペルソナを生成する際のバイアスをどう埋め込んだか
- Authors: Jacopo Amidei, Gregorio Ferreira, Mario Muñoz Serrano, Rubén Nieto, Andreas Kaltenbrunner,
- Abstract要約: まず,生成したペルソナのソシオデマトグラフィー特性における代表性と潜在的なバイアスを評価する。
全てのモデルはWEIRD(西部、教育され、工業化され、豊かで民主的な偏見を示し、若く、教育され、白人、異性愛者、中道的または進歩的な政治的見解を持つ西洋人、世俗的またはキリスト教的信念を好んでいる。
- 参考スコア(独自算出の注目度): 1.2641141743223376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper examines biases in large language models (LLMs) when generating synthetic populations from responses to personality questionnaires. Using five LLMs, we first assess the representativeness and potential biases in the sociodemographic attributes of the generated personas, as well as their alignment with the intended personality traits. While LLMs successfully reproduce known correlations between personality and sociodemographic variables, all models exhibit pronounced WEIRD (western, educated, industrialized, rich and democratic) biases, favoring young, educated, white, heterosexual, Western individuals with centrist or progressive political views and secular or Christian beliefs. In a second analysis, we manipulate input traits to maximize Neuroticism and Psychoticism scores. Notably, when Psychoticism is maximized, several models produce an overrepresentation of non-binary and LGBTQ+ identities, raising concerns about stereotyping and the potential pathologization of marginalized groups. Our findings highlight both the potential and the risks of using LLMs to generate psychologically grounded synthetic populations.
- Abstract(参考訳): 本稿では,多言語モデル(LLM)における人格質問に対する応答から合成集団を生成する際のバイアスについて検討する。
5つのLSMを用いて、まず、生成されたペルソナの社会デマグラフィー特性における代表性と潜在的なバイアス、および意図する性格特性との整合性を評価する。
LLMは人格と社会デマロジカルな変数の間に既知の相関関係を再現することに成功したが、全てのモデルはWEIRD(西欧、教育され、工業化され、豊かで、民主的な偏見を示し、若く、教育され、白人、異性愛者、中道的または進歩的な政治的見解を持つ西洋人、世俗的またはキリスト教的信念を好んでいる。
2つ目の分析では、入力特性を操作して、神経症と心理学のスコアを最大化する。
特に、心理学が最大化されると、いくつかのモデルが非バイナリとLGBTQ+のアイデンティティを過剰に表現し、ステレオタイピングと限界化されたグループの潜在的な同化を懸念する。
以上の結果から, LLMsを心理的に接地した合成個体群を発生させる可能性とリスクが示唆された。
関連論文リスト
- Are LLMs Empathetic to All? Investigating the Influence of Multi-Demographic Personas on a Model's Empathy [1.6489674562395387]
本研究では,大言語モデルの認知的・情緒的共感が,人口統計学的属性の交差によって定義されるユーザ・ペルソナによってどのように異なるかを検討する。
本研究は, 年齢, 文化, 性別の組み合わせで構築した, 315人の独特なペルソナの交叉分析について紹介する。
儒教文化など,特定の集団に対して顕著な不適応を伴って,現実世界の共感傾向を広く反映していることを示す。
論文 参考訳(メタデータ) (2025-10-11T20:04:57Z) - Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios [4.626073646852022]
応答のセマンティックシフトを測定するために,コサイン距離を用いた新しいフレームワークを提案する。
我々は、人口動態が、権力の異なる社会シナリオにおける応答品質にどのように影響するかを評価する。
以上の結果から,中高年で有能な母国生まれのコーカサス系無神論的男性に対する「デフォルト・ペルソナ」バイアスが示唆された。
論文 参考訳(メタデータ) (2025-03-03T13:44:03Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Large Language Models Can Infer Psychological Dispositions of Social Media Users [1.0923877073891446]
GPT-3.5とGPT-4は、ゼロショット学習シナリオにおいて、ユーザのFacebookステータス更新からビッグファイブの性格特性を導出できるかどうかを検証する。
その結果, LLM-inferred と self-reported trait score の間には r =.29 (range = [.22,.33]) の相関が認められた。
予測は、いくつかの特徴について、女性と若い個人にとってより正確であることが判明し、基礎となるトレーニングデータやオンライン自己表現の違いから生じる潜在的なバイアスが示唆された。
論文 参考訳(メタデータ) (2023-09-13T01:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。