論文の概要: A Tale of Two Identities: An Ethical Audit of Human and AI-Crafted Personas
- arxiv url: http://arxiv.org/abs/2505.07850v1
- Date: Wed, 07 May 2025 20:12:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.220181
- Title: A Tale of Two Identities: An Ethical Audit of Human and AI-Crafted Personas
- Title(参考訳): 2つのアイデンティティの物語:人間とAIによる人物の倫理的監査
- Authors: Pranav Narayanan Venkit, Jiayi Li, Yingfan Zhou, Sarah Rajtmajer, Shomir Wilson,
- Abstract要約: 大規模言語モデル (LLMs) はデータ制限領域における合成ペルソナの生成にますます利用されている。
本稿では,3つのLSMが生成する合成ペルソナを表現的害のレンズを通して評価し,特に人種的アイデンティティに着目した。
以上の結果から, LLMは, 人種的マーカーに偏り, 文化的にコード化された言語を過剰に生成し, 構文的に精巧だが物語的に還元的なペルソナを構築できることが判明した。
これらのパターンは、ステレオタイピング、エキゾチック、消去、好ましくない偏見など、様々な社会技術的害をもたらす。
- 参考スコア(独自算出の注目度): 7.3656495945307086
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As LLMs (large language models) are increasingly used to generate synthetic personas particularly in data-limited domains such as health, privacy, and HCI, it becomes necessary to understand how these narratives represent identity, especially that of minority communities. In this paper, we audit synthetic personas generated by 3 LLMs (GPT4o, Gemini 1.5 Pro, Deepseek 2.5) through the lens of representational harm, focusing specifically on racial identity. Using a mixed methods approach combining close reading, lexical analysis, and a parameterized creativity framework, we compare 1512 LLM generated personas to human-authored responses. Our findings reveal that LLMs disproportionately foreground racial markers, overproduce culturally coded language, and construct personas that are syntactically elaborate yet narratively reductive. These patterns result in a range of sociotechnical harms, including stereotyping, exoticism, erasure, and benevolent bias, that are often obfuscated by superficially positive narrations. We formalize this phenomenon as algorithmic othering, where minoritized identities are rendered hypervisible but less authentic. Based on these findings, we offer design recommendations for narrative-aware evaluation metrics and community-centered validation protocols for synthetic identity generation.
- Abstract(参考訳): LLM(大規模言語モデル)は、特に健康、プライバシ、HCIといったデータ限定の領域において、合成ペルソナを生成するためにますます使われているため、これらの物語がアイデンティティ、特にマイノリティコミュニティの物語をどのように表現しているかを理解する必要がある。
本稿では,3つのLPM(GPT4o,Gemini 1.5 Pro,Deepseek 2.5)が生成する合成ペルソナを表現的害のレンズを通して評価し,特に人種的アイデンティティに焦点を当てた。
クローズリーディング,語彙解析,パラメータ化クリエイティビティの枠組みを組み合わせた混合手法を用いて、1512個のLCM生成したペルソナと人為的な応答を比較した。
以上の結果から, LLMは, 人種的マーカーに偏り, 文化的にコード化された言語を過剰に生成し, 構文的に精巧だが物語的に還元的なペルソナを構築できることが判明した。
これらのパターンは、ステレオタイピング、エキゾチック、消去、好ましくない偏見など、様々な社会技術的害をもたらす。
我々は、この現象をアルゴリズム的な他の現象として定式化し、マイノリティ化されたアイデンティティは超可視であるが、精度は低い。
これらの知見に基づいて, 物語認識評価尺度の設計勧告と, コミュニティ中心による総合的アイデンティティ生成のための検証プロトコルを提案する。
関連論文リスト
- Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Laissez-Faire Harms: Algorithmic Biases in Generative Language Models [0.0]
そこで本研究では,最も広範に普及しているLMの5つのテキストから合成されたテキストが,未成年者に対する脱落,従属化,ステレオタイピングの被害を永久に及ぼしていることを示す。
我々は、そのような個人が、LM生成出力に遭遇する確率が数百から数千倍にも達するほど、偏見の証拠が広範囲にあることを発見した。
本研究は,言語モデルによる差別的被害から消費者を守るための緊急の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-04-11T05:09:03Z) - Large language models that replace human participants can harmfully misportray and flatten identity groups [36.36009232890876]
我々は、現在のLLMのトレーニング方法には2つの固有の制限があることを示します。
我々は、LCMが人口集団の表現を誤解し、フラットにする可能性がある理由を分析的に論じる。
また、アイデンティティープロンプトがアイデンティティーを不可欠なものにする方法について、第3の制限についても論じる。
論文 参考訳(メタデータ) (2024-02-02T21:21:06Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Marked Personas: Using Natural Language Prompts to Measure Stereotypes
in Language Models [33.157279170602784]
大規模言語モデル(LLM)におけるステレオタイプを測定するプロンプトベースの手法であるMarked Personasを提案する。
GPT-3.5 と GPT-4 が生成する描写は、同じプロンプトを用いた人間による描写よりも、人種的ステレオタイプの割合が高いことが判明した。
交叉レンズは、トロピズムやマイノリティ化された女性のセクシュアル化など、疎遠化されたグループの描写を支配しているトロープを露呈する。
論文 参考訳(メタデータ) (2023-05-29T16:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。