論文の概要: Exploring Gender Disparities in Automatic Speech Recognition Technology
- arxiv url: http://arxiv.org/abs/2502.18434v1
- Date: Tue, 25 Feb 2025 18:29:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:21:30.753947
- Title: Exploring Gender Disparities in Automatic Speech Recognition Technology
- Title(参考訳): 音声認識技術における性差の探索
- Authors: Hend ElGhazaly, Bahman Mirheidari, Nafise Sadat Moosavi, Heidi Christensen,
- Abstract要約: トレーニングデータにおいて、性別の表現によってパフォーマンスがどう異なるかを分析する。
以上の結果から,トレーニングデータにおける性別比とASR成績との複雑な相互作用が示唆された。
- 参考スコア(独自算出の注目度): 22.729651340592586
- License:
- Abstract: This study investigates factors influencing Automatic Speech Recognition (ASR) systems' fairness and performance across genders, beyond the conventional examination of demographics. Using the LibriSpeech dataset and the Whisper small model, we analyze how performance varies across different gender representations in training data. Our findings suggest a complex interplay between the gender ratio in training data and ASR performance. Optimal fairness occurs at specific gender distributions rather than a simple 50-50 split. Furthermore, our findings suggest that factors like pitch variability can significantly affect ASR accuracy. This research contributes to a deeper understanding of biases in ASR systems, highlighting the importance of carefully curated training data in mitigating gender bias.
- Abstract(参考訳): 本研究は,従来の人口統計調査を超越して,性別間の公正さと性能に影響を及ぼす要因について検討した。
LibriSpeechデータセットとWhisperの小さなモデルを用いて、トレーニングデータにおけるさまざまな性別表現のパフォーマンスがどのように変化するかを分析する。
以上の結果から,トレーニングデータにおける性別比とASR成績との複雑な相互作用が示唆された。
最適公平性は、単純な50-50分割ではなく、特定の性別分布で起こる。
さらに, ピッチ変動性などの要因がASRの精度に有意な影響を及ぼす可能性が示唆された。
この研究は、ASRシステムにおけるバイアスのより深い理解に寄与し、性別バイアスを緩和する上で、慎重にキュレートされたトレーニングデータの重要性を強調している。
関連論文リスト
- On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Everyone deserves their voice to be heard: Analyzing Predictive Gender Bias in ASR Models Applied to Dutch Speech Data [13.91630413828167]
本研究は,オランダ語音声データに基づくWhisperモデルの性能格差の同定に焦点をあてる。
性別グループ間の単語誤り率,文字誤り率,BERTに基づく意味的類似性を解析した。
論文 参考訳(メタデータ) (2024-11-14T13:29:09Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - On the Encoding of Gender in Transformer-based ASR Representations [18.08250235967961]
本研究では,2つのASRモデル(Wav2Vec2とHuBERT)の潜在表現における性別のエンコーディングと利用について検討する。
分析の結果、最終層における第1および最終層における性別情報の集中が明らかとなり、これらの層における性別の消去の容易さが説明できる。
論文 参考訳(メタデータ) (2024-06-14T09:10:24Z) - No Pitch Left Behind: Addressing Gender Unbalance in Automatic Speech
Recognition through Pitch Manipulation [20.731375136671605]
本稿では,基本周波数(f0)とホルマントを操作するデータ拡張手法を提案する。
この手法は、表現不足の女性話者の声をシミュレートすることにより、性別間のデータ不均衡を低減する。
自発性英語音声の実験では,女性話者の発話に対して,WERの相対的な改善が9.87%に達することが示された。
論文 参考訳(メタデータ) (2023-10-10T12:55:22Z) - Elucidate Gender Fairness in Singing Voice Transcription [5.434559527051845]
歌唱音声書き起こし(SVT)における性差が性差につながるかどうかを考察する。
ジェンダーデータの不均衡ではなく、ピッチの分布が異なることが、この格差に寄与している。
この問題に対処するために、属性予測器を用いて性別ラベルを予測し、SVTシステムを逆さまに訓練し、音響表現の性差を強制する手法を提案する。
論文 参考訳(メタデータ) (2023-08-05T15:15:01Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。