論文の概要: The Effect of Group Status on the Variability of Group Representations
in LLM-generated Text
- arxiv url: http://arxiv.org/abs/2401.08495v1
- Date: Tue, 16 Jan 2024 16:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 19:00:56.762512
- Title: The Effect of Group Status on the Variability of Group Representations
in LLM-generated Text
- Title(参考訳): LLMテキストにおけるグループ表現の可変性に及ぼすグループ状態の影響
- Authors: Messi H.J. Lee, Jacob M. Montgomery, Calvin K. Lai
- Abstract要約: 大型言語モデル(LLM)は、アフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現している。
性別の影響は人種や民族によって異なり、性別の影響はアフリカ系アメリカ人とヒスパニック系アメリカ人の間では一貫しているが、アジア系アメリカ人と白人アメリカ人には及ばない。
- 参考スコア(独自算出の注目度): 0.34530027457862006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) have become pervasive in everyday life, yet
their inner workings remain opaque. While scholarly efforts have demonstrated
LLMs' propensity to reproduce biases in their training data, they have
primarily focused on the association of social groups with stereotypic
attributes. In this paper, we extend this line of inquiry to investigate a bias
akin to the social-psychological phenomenon where socially dominant groups are
perceived to be less homogeneous than socially subordinate groups as it is
reproduced by LLMs. We had ChatGPT, a state-of-the-art LLM, generate a
diversity of texts about intersectional group identities and compared text
homogeneity. We consistently find that LLMs portray African, Asian, and
Hispanic Americans as more homogeneous than White Americans. They also portray
women as more homogeneous than men, but these differences are small. Finally,
we find that the effect of gender differs across racial/ethnic groups such that
the effect of gender is consistent within African and Hispanic Americans but
not within Asian and White Americans. We speculate possible sources of this
bias in LLMs and posit that the bias has the potential to amplify biases in
future LLM training and to reinforce stereotypes.
- Abstract(参考訳): 大規模言語モデル(llm)は日常生活で広く普及しているが、その内部構造は不透明である。
学術的な取り組みは、llmがトレーニングデータでバイアスを再現する傾向を示してきたが、彼らは主に社会集団とステレオタイプ属性の関連に焦点を当ててきた。
本稿では,社会的な支配的な集団が社会的な従属集団よりも同質でないと認識される社会心理学現象に類する偏見を,LSMによって再現されることにより調査する。
我々は,最先端のLCMであるChatGPTを交叉群の同一性に関するテキストの多様性を生成し,テキストの均一性を比較した。
llmはアフリカ系、アジア系、ヒスパニック系のアメリカ人を白人よりも均質に表現している。
彼らはまた、女性を男性よりも同質であると描写するが、これらの違いは小さい。
最後に、性別の影響は人種や民族によって異なり、性別の影響はアフリカ系アメリカ人とヒスパニック系アメリカ人の間で一貫しているが、アジア系アメリカ人と白人アメリカ人には及ばない。
LLMにおけるこのバイアスの原因を推測し、このバイアスは将来のLCMトレーニングにおけるバイアスを増幅し、ステレオタイプを強化する可能性があると仮定する。
関連論文リスト
- White Men Lead, Black Women Help: Uncovering Gender, Racial, and Intersectional Bias in Language Agency [58.27353205269664]
言語エージェンシーにおける社会的バイアスは、人書きと大規模言語モデル(LLM)の生成したテキストの両方に現れる。
本研究では,人文・大規模言語モデル(LLM)生成テキストの社会的偏見を研究する上で,エージェンシーを重要な側面として位置づける。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Protected group bias and stereotypes in Large Language Models [2.1122940074160357]
本稿では,倫理と公正の領域におけるLarge Language Models(LLM)の振る舞いについて考察する。
マイノリティ化されたグループに偏見はありますが、特に性別やセクシュアリティの領域では、西洋の偏見も見られます。
論文 参考訳(メタデータ) (2024-03-21T00:21:38Z) - I Am Not Them: Fluid Identities and Persistent Out-group Bias in Large
Language Models [11.77633171656753]
我々は、西欧語(英語、ドイツ語、フランス語)と東欧語(中国語、日本語、韓国語)にまたがる文化的偏見-個人主義対集団主義-ChatGPTについて検討した。
ChatGPTが西洋語で個人主義的ペルソナを採用すると、その集団主義のスコア(つまり、グループ外値)はより否定的な傾向を示した。
逆に、東欧語で集団主義的ペルソナがChatGPTに割り当てられたとき、同様のパターンが出現し、個人主義に対するより否定的な反応(つまり、外集団の値)が現れた。
論文 参考訳(メタデータ) (2024-02-16T03:54:48Z) - Large Language Models are Geographically Biased [51.37609528538606]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and
Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的あるいは否定的な感情の偏見を広く保持するか否かを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z) - Marked Personas: Using Natural Language Prompts to Measure Stereotypes
in Language Models [33.157279170602784]
大規模言語モデル(LLM)におけるステレオタイプを測定するプロンプトベースの手法であるMarked Personasを提案する。
GPT-3.5 と GPT-4 が生成する描写は、同じプロンプトを用いた人間による描写よりも、人種的ステレオタイプの割合が高いことが判明した。
交叉レンズは、トロピズムやマイノリティ化された女性のセクシュアル化など、疎遠化されたグループの描写を支配しているトロープを露呈する。
論文 参考訳(メタデータ) (2023-05-29T16:29:22Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - CrowS-Pairs: A Challenge Dataset for Measuring Social Biases in Masked
Language Models [30.582132471411263]
Crowd Stereotype Pairsベンチマーク(CrowS-Pairs)を紹介する。
CrowS-Pairsには1508の例があり、人種、宗教、年齢など9種類の偏見を扱うステレオタイプをカバーしている。
その結果, CrowS-Pairs の各カテゴリーにおいて, 広く使われている3つの文のすべてが, 実質的にステレオタイプを好んでいることがわかった。
論文 参考訳(メタデータ) (2020-09-30T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。