論文の概要: Is It Still Fair? Investigating Gender Fairness in Cross-Corpus Speech Emotion Recognition
- arxiv url: http://arxiv.org/abs/2501.00995v1
- Date: Thu, 02 Jan 2025 01:21:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:13:00.178877
- Title: Is It Still Fair? Investigating Gender Fairness in Cross-Corpus Speech Emotion Recognition
- Title(参考訳): 未だにフェアか? クロスコーパス音声認識におけるジェンダーフェアネスの検討
- Authors: Shreya G. Upadhyay, Woan-Shiuan Chien, Chi-Chun Lee,
- Abstract要約: クロスコーパス音声感情認識(SER)モデルは、パフォーマンスを一般化する能力によって、ますます認識されつつある。
既存のフェアネス研究は、しばしばコーパス固有のフェアネスにのみ焦点をあて、クロスコーパスシナリオにおける一般化可能性を無視している。
本研究は, クロスコーパスSERシナリオにおけるジェンダーフェアネスの一般化性について検討した。
- 参考スコア(独自算出の注目度): 24.235461586664623
- License:
- Abstract: Speech emotion recognition (SER) is a vital component in various everyday applications. Cross-corpus SER models are increasingly recognized for their ability to generalize performance. However, concerns arise regarding fairness across demographics in diverse corpora. Existing fairness research often focuses solely on corpus-specific fairness, neglecting its generalizability in cross-corpus scenarios. Our study focuses on this underexplored area, examining the gender fairness generalizability in cross-corpus SER scenarios. We emphasize that the performance of cross-corpus SER models and their fairness are two distinct considerations. Moreover, we propose the approach of a combined fairness adaptation mechanism to enhance gender fairness in the SER transfer learning tasks by addressing both source and target genders. Our findings bring one of the first insights into the generalizability of gender fairness in cross-corpus SER systems.
- Abstract(参考訳): 音声感情認識(SER)は、様々な日常的応用において欠かせない要素である。
クロスコーパスSERモデルは、パフォーマンスを一般化する能力でますます認識されている。
しかし、多様なコーパスにおける人口動態の公平性に関する懸念が生じる。
既存のフェアネス研究は、しばしばコーパス固有のフェアネスにのみ焦点をあて、クロスコーパスシナリオにおける一般化可能性を無視している。
本研究は, クロスコーパスSERシナリオにおけるジェンダーフェアネスの一般化性について検討した。
クロスコーパスSERモデルの性能と公平性は2つの異なる考慮事項である,と我々は強調する。
さらに、ソースとターゲットの両方の性別に対処することで、SER転送学習タスクにおけるジェンダーフェアネスを高めるために、フェアネス適応機構を組み合わせたアプローチを提案する。
本研究は, クロスコーパスSERシステムにおけるジェンダーフェアネスの一般化性に関する最初の知見の1つである。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Think Before You Act: A Two-Stage Framework for Mitigating Gender Bias Towards Vision-Language Tasks [5.123567809055078]
視覚言語モデル(VLM)における性バイアスは、有害なステレオタイプや差別を強化することができる。
本稿では,ジェンダーバイアスを軽減するためのタスク依存生成フレームワークGAMAを提案する。
物語生成の際、GAMAは全面的だが性的に難解な物語を産み出す。
回答推論の間、GAMAは画像、生成された物語、タスク固有の質問プロンプトを統合し、異なる視覚言語タスクに対する回答を推測する。
論文 参考訳(メタデータ) (2024-05-27T06:20:58Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness for Unobserved Characteristics: Insights from Technological
Impacts on Queer Communities [7.485814345656486]
性的指向と性同一性は、観察されない特性の原型例である。
アルゴリズム的公平性に対する新しいアプローチは、観測される特性の一般的な仮定から切り離される。
論文 参考訳(メタデータ) (2021-02-03T18:52:54Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。