論文の概要: Misalignment of LLM-Generated Personas with Human Perceptions in Low-Resource Settings
- arxiv url: http://arxiv.org/abs/2512.02058v1
- Date: Fri, 28 Nov 2025 17:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.540495
- Title: Misalignment of LLM-Generated Personas with Human Perceptions in Low-Resource Settings
- Title(参考訳): 低資源環境下でのLLM生成と人間知覚の相違
- Authors: Tabia Tanzin Prama, Christopher M. Danforth, Peter Sheridan Dodds,
- Abstract要約: 本研究は, バングラデシュのような低資源環境下での8人のLLM生成社会人格(男性, 女性, ムスリム, 政治的支援者)の人的反応を定量的に比較した。
その結果、人間の反応は、質問に対する答えにおいて全てのLLMよりも優れており、特に共感と信頼のギャップが大きいペルソナ知覚のすべての行列において顕著に優れていた。
LLMペルソナを現実世界の人間データに対して検証し、社会科学研究に展開する前にそのアライメントと信頼性を確保することが不可欠である。
- 参考スコア(独自算出の注目度): 0.568041607842355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances enable Large Language Models (LLMs) to generate AI personas, yet their lack of deep contextual, cultural, and emotional understanding poses a significant limitation. This study quantitatively compared human responses with those of eight LLM-generated social personas (e.g., Male, Female, Muslim, Political Supporter) within a low-resource environment like Bangladesh, using culturally specific questions. Results show human responses significantly outperform all LLMs in answering questions, and across all matrices of persona perception, with particularly large gaps in empathy and credibility. Furthermore, LLM-generated content exhibited a systematic bias along the lines of the ``Pollyanna Principle'', scoring measurably higher in positive sentiment ($Φ_{avg} = 5.99$ for LLMs vs. $5.60$ for Humans). These findings suggest that LLM personas do not accurately reflect the authentic experience of real people in resource-scarce environments. It is essential to validate LLM personas against real-world human data to ensure their alignment and reliability before deploying them in social science research.
- Abstract(参考訳): 近年の進歩により、Large Language Models (LLM) はAIペルソナを生成できるようになったが、その深い文脈、文化的、感情的な理解の欠如は、重大な制限をもたらす。
本研究は, バングラデシュなどの低資源環境において, 文化的な質問を用いて, LLM生成社会人格8名(男性, 女性, ムスリム, 政治的支援者)と人的反応を定量的に比較した。
その結果、人間の反応は、質問に対する答えにおいて全てのLLMよりも優れており、特に共感と信頼のギャップが大きいペルソナ知覚のすべてのマトリックスにおいて顕著に優れていた。
さらに、LLMが生成したコンテンツは「ポリリアナ原理」の線に沿って体系的な偏見を示し、肯定的な感情(5.99ドル対人間5.60ドル)で評価された。
以上の結果から, LLMペルソナは実生活における実体験を正確に反映していないことが示唆された。
LLMペルソナを現実世界の人間データに対して検証し、社会科学研究に展開する前にそのアライメントと信頼性を確保することが不可欠である。
関連論文リスト
- Large Language Models are overconfident and amplify human bias [1.014221700787766]
我々は,大規模言語モデル(LLM)が最も広く普及している人間のバイアスの1つ、過信を継承するかどうかを評価する。
私たちが研究している5つのLCMは、すべて過信であり、答えが20%から60%の間正しい確率を過信しています。
人間はより高度なLSMと同様の精度を持つが、過信ははるかに低い。
論文 参考訳(メタデータ) (2025-05-04T15:21:34Z) - Modeling Human Subjectivity in LLMs Using Explicit and Implicit Human Factors in Personas [14.650234624251716]
大規模言語モデル (LLMs) は、人間中心の社会科学タスクでますます使われている。
これらのタスクは非常に主観的であり、環境、態度、信念、生きた経験など人間的要因に依存している。
我々は,LLMを人間的なペルソナで促進する役割について検討し,モデルに特定の人間であるかのように答えるよう求めた。
論文 参考訳(メタデータ) (2024-06-20T16:24:07Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Challenging the Validity of Personality Tests for Large Language Models [2.9123921488295768]
大規模言語モデル(LLM)は、テキストベースのインタラクションにおいて、ますます人間らしく振る舞う。
人格検査に対するLLMの反応は、人間の反応から体系的に逸脱する。
論文 参考訳(メタデータ) (2023-11-09T11:54:01Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。