論文の概要: Demographic Biases and Gaps in the Perception of Sexism in Large Language Models
- arxiv url: http://arxiv.org/abs/2508.18245v1
- Date: Mon, 25 Aug 2025 17:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.896633
- Title: Demographic Biases and Gaps in the Perception of Sexism in Large Language Models
- Title(参考訳): 大規模言語モデルにおける性差別の知覚におけるデモグラフィックバイアスとギャップ
- Authors: Judith Tavarez-Rodríguez, Fernando Sánchez-Vega, A. Pastor López-Monroy,
- Abstract要約: ソーシャルメディアのテキストで性差別を検出するための,様々な大規模言語モデルの能力について検討する。
我々は、モデルに存在する人口統計バイアスを分析し、統計分析を行う。
以上の結果から, LLMは集団の全体的意見を考えるとある程度性差別を検出できるが, 異なる集団間での認識の多様性を正確に再現するものではないことが示唆された。
- 参考スコア(独自算出の注目度): 43.77504559722899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Large Language Models (LLMs) has proven to be a tool that could help in the automatic detection of sexism. Previous studies have shown that these models contain biases that do not accurately reflect reality, especially for minority groups. Despite various efforts to improve the detection of sexist content, this task remains a significant challenge due to its subjective nature and the biases present in automated models. We explore the capabilities of different LLMs to detect sexism in social media text using the EXIST 2024 tweet dataset. It includes annotations from six distinct profiles for each tweet, allowing us to evaluate to what extent LLMs can mimic these groups' perceptions in sexism detection. Additionally, we analyze the demographic biases present in the models and conduct a statistical analysis to identify which demographic characteristics (age, gender) contribute most effectively to this task. Our results show that, while LLMs can to some extent detect sexism when considering the overall opinion of populations, they do not accurately replicate the diversity of perceptions among different demographic groups. This highlights the need for better-calibrated models that account for the diversity of perspectives across different populations.
- Abstract(参考訳): LLM(Large Language Models)の使用は、性差別の自動検出に役立つツールであることが証明されている。
以前の研究では、これらのモデルには、特に少数派の集団において、現実を正確に反映しないバイアスが含まれていることが示されている。
性差別的コンテンツの検出を改善するための様々な取り組みにもかかわらず、この課題は、その主観的性質と、自動モデルに存在するバイアスのために、依然として重要な課題である。
EXIST 2024 のつぶやきデータセットを用いてソーシャルメディアテキスト中の性差別を検知する様々な LLM の機能について検討する。
ツイートごとに6つの異なるプロファイルからのアノテーションが含まれており、LSMが性差別検出におけるこれらのグループの認識をどの程度模倣できるかを評価することができる。
さらに、モデルに存在する人口統計バイアスを分析し、どの人口統計特性(年齢、性別)がこの課題に最も効果的に寄与するかを統計的に分析する。
以上の結果から, LLMは集団の全体的意見を考えるとある程度性差別を検出できるが, 異なる集団間での認識の多様性を正確に再現するものではないことが示唆された。
これは、異なる集団における視点の多様性を考慮に入れた、より良い校正モデルの必要性を強調している。
関連論文リスト
- More Women, Same Stereotypes: Unpacking the Gender Bias Paradox in Large Language Models [3.154053412440065]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、社会的偏見を反映または増幅する傾向について懸念が持たれている。
本研究では,LSMにおける性別バイアスを明らかにするための新しい評価枠組みを提案する。
10の著名なLSMの体系的な分析は、職業全体にわたって女性キャラクターを過剰に表現する一貫したパターンを示している。
論文 参考訳(メタデータ) (2025-03-20T07:15:45Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Sociodemographic Prompting is Not Yet an Effective Approach for Simulating Subjective Judgments with LLMs [13.744746481528711]
大規模言語モデル(LLM)は、様々な文脈で人間の反応をシミュレートするために広く使われている。
我々は,2つの主観的判断課題(丁寧さと攻撃性)において,人口差を理解する能力について,9つの人気のLCMを評価した。
ゼロショット設定では、両方のタスクのほとんどのモデルの予測は、アジアやブラックの参加者よりもホワイトの参加者のラベルとより密接に一致している。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Call me sexist, but...": Revisiting Sexism Detection Using
Psychological Scales and Adversarial Samples [2.029924828197095]
我々は、性差別の異なる側面を心理学的尺度でそれらの実践に基礎を置いて概説する。
このスケールから、ソーシャルメディアにおける性差別のためのコードブックを導き、既存のデータセットや新しいデータセットに注釈を付けるために使用します。
結果は、現在の機械学習モデルは、性差別の非常に狭い言語マーカーの集合を拾い上げ、ドメイン外の例にうまく一般化しないことを示唆している。
論文 参考訳(メタデータ) (2020-04-27T13:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。