論文の概要: A Tale of Two Identities: An Ethical Audit of Human and AI-Crafted Personas
- arxiv url: http://arxiv.org/abs/2505.07850v1
- Date: Wed, 07 May 2025 20:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.220181
- Title: A Tale of Two Identities: An Ethical Audit of Human and AI-Crafted Personas
- Title(参考訳): 2つのアイデンティティの物語:人間とAIによる人物の倫理的監査
- Authors: Pranav Narayanan Venkit, Jiayi Li, Yingfan Zhou, Sarah Rajtmajer, Shomir Wilson,
- Abstract要約: 大規模言語モデル (LLMs) はデータ制限領域における合成ペルソナの生成にますます利用されている。
本稿では,3つのLSMが生成する合成ペルソナを表現的害のレンズを通して評価し,特に人種的アイデンティティに着目した。
以上の結果から, LLMは, 人種的マーカーに偏り, 文化的にコード化された言語を過剰に生成し, 構文的に精巧だが物語的に還元的なペルソナを構築できることが判明した。
これらのパターンは、ステレオタイピング、エキゾチック、消去、好ましくない偏見など、様々な社会技術的害をもたらす。
- 参考スコア(独自算出の注目度): 7.3656495945307086
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As LLMs (large language models) are increasingly used to generate synthetic personas particularly in data-limited domains such as health, privacy, and HCI, it becomes necessary to understand how these narratives represent identity, especially that of minority communities. In this paper, we audit synthetic personas generated by 3 LLMs (GPT4o, Gemini 1.5 Pro, Deepseek 2.5) through the lens of representational harm, focusing specifically on racial identity. Using a mixed methods approach combining close reading, lexical analysis, and a parameterized creativity framework, we compare 1512 LLM generated personas to human-authored responses. Our findings reveal that LLMs disproportionately foreground racial markers, overproduce culturally coded language, and construct personas that are syntactically elaborate yet narratively reductive. These patterns result in a range of sociotechnical harms, including stereotyping, exoticism, erasure, and benevolent bias, that are often obfuscated by superficially positive narrations. We formalize this phenomenon as algorithmic othering, where minoritized identities are rendered hypervisible but less authentic. Based on these findings, we offer design recommendations for narrative-aware evaluation metrics and community-centered validation protocols for synthetic identity generation.
- Abstract(参考訳): LLM(大規模言語モデル)は、特に健康、プライバシ、HCIといったデータ限定の領域において、合成ペルソナを生成するためにますます使われているため、これらの物語がアイデンティティ、特にマイノリティコミュニティの物語をどのように表現しているかを理解する必要がある。
本稿では,3つのLPM(GPT4o,Gemini 1.5 Pro,Deepseek 2.5)が生成する合成ペルソナを表現的害のレンズを通して評価し,特に人種的アイデンティティに焦点を当てた。
クローズリーディング,語彙解析,パラメータ化クリエイティビティの枠組みを組み合わせた混合手法を用いて、1512個のLCM生成したペルソナと人為的な応答を比較した。
以上の結果から, LLMは, 人種的マーカーに偏り, 文化的にコード化された言語を過剰に生成し, 構文的に精巧だが物語的に還元的なペルソナを構築できることが判明した。
これらのパターンは、ステレオタイピング、エキゾチック、消去、好ましくない偏見など、様々な社会技術的害をもたらす。
我々は、この現象をアルゴリズム的な他の現象として定式化し、マイノリティ化されたアイデンティティは超可視であるが、精度は低い。
これらの知見に基づいて, 物語認識評価尺度の設計勧告と, コミュニティ中心による総合的アイデンティティ生成のための検証プロトコルを提案する。
関連論文リスト
- Poor Alignment and Steerability of Large Language Models: Evidence from College Admission Essays [19.405531377930977]
本研究では,大規模言語モデル (LLM) を高文脈で使用することを検討した。
両タイプのLCMエッセイは,人間によるエッセイとは言語的に異なることがわかった。
人口統計学的に誘発され、未発達の合成テキストは、人間のテキストよりも互いに類似していた。
論文 参考訳(メタデータ) (2025-03-25T20:54:50Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Laissez-Faire Harms: Algorithmic Biases in Generative Language Models [0.0]
そこで本研究では,最も広範に普及しているLMの5つのテキストから合成されたテキストが,未成年者に対する脱落,従属化,ステレオタイピングの被害を永久に及ぼしていることを示す。
我々は、そのような個人が、LM生成出力に遭遇する確率が数百から数千倍にも達するほど、偏見の証拠が広範囲にあることを発見した。
本研究は,言語モデルによる差別的被害から消費者を守るための緊急の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-04-11T05:09:03Z) - Large language models that replace human participants can harmfully misportray and flatten identity groups [36.36009232890876]
我々は、現在のLLMのトレーニング方法には2つの固有の制限があることを示します。
我々は、LCMが人口集団の表現を誤解し、フラットにする可能性がある理由を分析的に論じる。
また、アイデンティティープロンプトがアイデンティティーを不可欠なものにする方法について、第3の制限についても論じる。
論文 参考訳(メタデータ) (2024-02-02T21:21:06Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Marked Personas: Using Natural Language Prompts to Measure Stereotypes
in Language Models [33.157279170602784]
大規模言語モデル(LLM)におけるステレオタイプを測定するプロンプトベースの手法であるMarked Personasを提案する。
GPT-3.5 と GPT-4 が生成する描写は、同じプロンプトを用いた人間による描写よりも、人種的ステレオタイプの割合が高いことが判明した。
交叉レンズは、トロピズムやマイノリティ化された女性のセクシュアル化など、疎遠化されたグループの描写を支配しているトロープを露呈する。
論文 参考訳(メタデータ) (2023-05-29T16:29:22Z) - Out of One, Many: Using Language Models to Simulate Human Samples [3.278541277919869]
このようなツール(GPT-3言語モデル)の「アルゴリズムバイアス」は、粒度と人口統計学的に相関していることを示す。
我々は、実際の人間の参加者から何千もの社会デマトグラフィーのバックストリーにモデルを条件付けることで「シリコンサンプル」を作成します。
論文 参考訳(メタデータ) (2022-09-14T19:53:32Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。