論文の概要: Investigating Gender Bias in LLM-Generated Stories via Psychological Stereotypes
- arxiv url: http://arxiv.org/abs/2508.03292v1
- Date: Tue, 05 Aug 2025 10:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.908319
- Title: Investigating Gender Bias in LLM-Generated Stories via Psychological Stereotypes
- Title(参考訳): 心理学的ステレオタイプを用いたLLM物語におけるジェンダーバイアスの調査
- Authors: Shahed Masoudian, Gustavo Escobedo, Hannah Strauss, Markus Schedl,
- Abstract要約: 本研究では,大規模言語モデル(LLM)におけるジェンダーバイアスについて,心理学で研究されたジェンダーステレオタイプを用いて検討する。
我々は,25の心理的ステレオタイプから1,2,6のランダム属性に無条件または条件付きのいずれかの短いストーリーを含むStereoBias-Storiesという新しいデータセットを紹介した。
これらの属性に反応して、全体の物語におけるジェンダーコントリビューションがどのように変化するかを分析し、3つの重要な知見を提示する。
- 参考スコア(独自算出の注目度): 8.091664636677637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) are increasingly used across different applications, concerns about their potential to amplify gender biases in various tasks are rising. Prior research has often probed gender bias using explicit gender cues as counterfactual, or studied them in sentence completion and short question answering tasks. These formats might overlook more implicit forms of bias embedded in generative behavior of longer content. In this work, we investigate gender bias in LLMs using gender stereotypes studied in psychology (e.g., aggressiveness or gossiping) in an open-ended task of narrative generation. We introduce a novel dataset called StereoBias-Stories containing short stories either unconditioned or conditioned on (one, two, or six) random attributes from 25 psychological stereotypes and three task-related story endings. We analyze how the gender contribution in the overall story changes in response to these attributes and present three key findings: (1) While models, on average, are highly biased towards male in unconditioned prompts, conditioning on attributes independent from gender stereotypes mitigates this bias. (2) Combining multiple attributes associated with the same gender stereotype intensifies model behavior, with male ones amplifying bias and female ones alleviating it. (3) Model biases align with psychological ground-truth used for categorization, and alignment strength increases with model size. Together, these insights highlight the importance of psychology-grounded evaluation of LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、さまざまなアプリケーションにまたがって使われるようになっているため、様々なタスクにおける性バイアスを増幅する可能性への懸念が高まっている。
以前の研究では、露骨な性別の手がかりを反事実として性別の偏見を調査したり、文章の完成と短い質問応答タスクで研究したりすることが多かった。
これらの形式は、より長いコンテンツの生成行動に埋め込まれたより暗黙的なバイアスの形を見落としてしまうかもしれない。
本研究では,心理学におけるジェンダーステレオタイプ(例えば,アグレッシブネス,ゴシップ)を用いた物語生成のオープンエンドタスクにおけるLDMにおけるジェンダーバイアスについて検討する。
本稿では,25の心理的ステレオタイプと3つのタスク関連ストーリーエンディングから,無条件または条件付き(1,2,6)のランダム属性を含むStereoBias-Storiesという新しいデータセットを紹介する。
1) モデルでは, 平均的に, 無条件のプロンプトにおいて男性に偏りが強いが, 性別のステレオタイプに依存しない属性の条件付けは, この偏りを緩和する。
2)同じ性別のステレオタイプに関連付けられた複数の属性を組み合わせることで、モデル行動が強化され、男性はバイアスを増幅し、女性はモデル行動が緩和される。
3)モデル偏差は,分類に使用される心理的基盤構造と一致し,アライメント強度はモデルサイズとともに増加する。
これらの知見は,LLMの心理学的評価の重要性を浮き彫りにした。
関連論文リスト
- From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models from the Lens of Social Relationship [13.416624729344477]
我々はジェネレス(Genres)について紹介する。ジェネレス(Genres)は、MLLMにおけるジェンダーバイアスを評価するための新しいベンチマークである。
本研究は,MLLMにおける性差の微妙な性差の診断における関係認識ベンチマークの重要性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-29T06:03:21Z) - The LLM Wears Prada: Analysing Gender Bias and Stereotypes through Online Shopping Data [8.26034886618475]
本研究では,オンラインショッピング履歴のみに基づいて,大規模言語モデルが個人の性別を予測できるかどうかを検討する。
米国ユーザーのオンライン購入履歴のデータセットを用いて、性別を分類する6つのLCMの能力を評価する。
結果は、モデルが適度な精度で性別を推測できる一方で、その決定は製品カテゴリーと性別のステレオタイプ的関連に根ざしていることを示している。
論文 参考訳(メタデータ) (2025-04-02T17:56:08Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts [15.676219253088211]
大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
論文 参考訳(メタデータ) (2024-10-14T20:50:11Z) - Hire Me or Not? Examining Language Model's Behavior with Occupation Attributes [7.718858707298602]
大規模言語モデル(LLM)は、採用やレコメンデーションシステムなど、プロダクションパイプラインに広く統合されている。
本稿では、職業意思決定の文脈において、ジェンダーステレオタイプに関するLCMの行動について検討する。
論文 参考訳(メタデータ) (2024-05-06T18:09:32Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender Perturbation over Fairytale Texts [80.21033860436081]
本稿では, モデルが非現実的データ拡張を通じて, ジェンダーステレオタイプ摂動にどう反応するかを検討する。
実験結果から, 性別の摂動に直面すると, モデルの性能低下がわずかであることがわかった。
反現実的なトレーニングデータに基づいて微調整を行うと、モデルは反ステレオタイプな物語に対してより堅牢になる。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。