論文の概要: Gender Bias in Emotion Recognition by Large Language Models
- arxiv url: http://arxiv.org/abs/2511.19785v1
- Date: Mon, 24 Nov 2025 23:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.204773
- Title: Gender Bias in Emotion Recognition by Large Language Models
- Title(参考訳): 大規模言語モデルによる感情認識におけるジェンダーバイアス
- Authors: Maureen Herbert, Katie Sun, Angelica Lim, Yasaman Etesam,
- Abstract要約: 本研究では,大きな言語モデル (LLM) が人とその環境を記述した場合, 性別バイアスを示すか否かを検討する。
バイアスの有意義な低減を実現するには、トレーニングベースの介入が必要であることを実証し、いくつかのデバイアス対策を提案し、評価する。
- 参考スコア(独自算出の注目度): 1.515443880360935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of large language models (LLMs) and their growing integration into daily life underscore the importance of evaluating and ensuring their fairness. In this work, we examine fairness within the domain of emotional theory of mind, investigating whether LLMs exhibit gender biases when presented with a description of a person and their environment and asked, "How does this person feel?". Furthermore, we propose and evaluate several debiasing strategies, demonstrating that achieving meaningful reductions in bias requires training based interventions rather than relying solely on inference-time prompt-based approaches such as prompt engineering.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩と,それらの日常生活への統合は,その公正さを評価し,確実にすることの重要性を浮き彫りにしている。
本研究は、心の感情論領域における公平性について検討し、LLMが人とその環境の記述を提示して「この人はどのように感じているのか?」と質問した。
さらに, バイアスの有意義な低減を実現するには, 推論時間のみに依存するのではなく, トレーニングベースの介入が必要であることを実証し, いくつかのデバイアス対策を提案し, 評価する。
関連論文リスト
- Measuring Bias or Measuring the Task: Understanding the Brittle Nature of LLM Gender Biases [2.9803250365852443]
本稿では, 課題評価の目的が, LLMの性別バイアスに与える影響について検討する。
ジェンダーバイアス(性偏見)の評価とより明確に一致していることが、ジェンダーの出力分布を区別する要因であることがわかった。
論文 参考訳(メタデータ) (2025-09-04T16:32:18Z) - From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models from the Lens of Social Relationship [13.416624729344477]
我々はジェネレス(Genres)について紹介する。ジェネレス(Genres)は、MLLMにおけるジェンダーバイアスを評価するための新しいベンチマークである。
本研究は,MLLMにおける性差の微妙な性差の診断における関係認識ベンチマークの重要性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-29T06:03:21Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Blacks is to Anger as Whites is to Joy? Understanding Latent Affective
Bias in Large Pre-trained Neural Language Models [3.5278693565908137]
感情バイアス(Affective Bias)とは、特定の性別、人種、宗教に対する感情の関連性である。
PLMに基づく感情検出システムに統計的に有意な感情バイアスが存在することを示す。
論文 参考訳(メタデータ) (2023-01-21T20:23:09Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。