論文の概要: Elucidate Gender Fairness in Singing Voice Transcription
- arxiv url: http://arxiv.org/abs/2308.02898v1
- Date: Sat, 5 Aug 2023 15:15:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:11:19.223704
- Title: Elucidate Gender Fairness in Singing Voice Transcription
- Title(参考訳): 歌声転写における性公平性の解明
- Authors: Xiangming Gu and Wei Zeng and Ye Wang
- Abstract要約: 歌唱音声書き起こし(SVT)における性差が性差につながるかどうかを考察する。
ジェンダーデータの不均衡ではなく、ピッチの分布が異なることが、この格差に寄与している。
この問題に対処するために、属性予測器を用いて性別ラベルを予測し、SVTシステムを逆さまに訓練し、音響表現の性差を強制する手法を提案する。
- 参考スコア(独自算出の注目度): 5.434559527051845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is widely known that males and females typically possess different sound
characteristics when singing, such as timbre and pitch, but it has never been
explored whether these gender-based characteristics lead to a performance
disparity in singing voice transcription (SVT), whose target includes pitch.
Such a disparity could cause fairness issues and severely affect the user
experience of downstream SVT applications. Motivated by this, we first
demonstrate the female superiority of SVT systems, which is observed across
different models and datasets. We find that different pitch distributions,
rather than gender data imbalance, contribute to this disparity. To address
this issue, we propose using an attribute predictor to predict gender labels
and adversarially training the SVT system to enforce the gender-invariance of
acoustic representations. Leveraging the prior knowledge that pitch
distributions may contribute to the gender bias, we propose conditionally
aligning acoustic representations between demographic groups by feeding note
events to the attribute predictor. Empirical experiments on multiple benchmark
SVT datasets show that our method significantly reduces gender bias (up to more
than 50%) with negligible degradation of overall SVT performance, on both
in-domain and out-of-domain singing data, thus offering a better
fairness-utility trade-off.
- Abstract(参考訳): 男性と女性は通常、音色やピッチといった歌声の音響特性が異なることが知られているが、これらの性別に基づく特徴が、ピッチを含む歌唱音声転写(svt)においてパフォーマンスの格差をもたらすかどうかについては検討されていない。
このような格差は公平性の問題を引き起こし、下流のSVTアプリケーションのユーザエクスペリエンスに深刻な影響を及ぼす可能性がある。
そこで本研究では,SVTシステムの女性優位性を,様々なモデルやデータセットで実証する。
異なるピッチ分布は、性別データの不均衡ではなく、この格差に寄与する。
この問題に対処するために、属性予測器を用いて性別ラベルを予測し、SVTシステムを逆さまに訓練し、音響表現の性差を強制する手法を提案する。
ピッチ分布が性別バイアスに寄与する可能性のある先行知識を活用し,属性予測者に音符イベントを与えることで,人口集団間の音響表現を条件付きで調整する手法を提案する。
複数のベンチマークSVTデータセットに対する実証実験により、本手法は、ドメイン内およびドメイン外の両方の歌唱データにおいて、SVTパフォーマンスの無視可能な劣化により、性別バイアス(最大50%)を大幅に低減し、フェアネスとユーティリティのトレードオフが向上することが示された。
関連論文リスト
- Everyone deserves their voice to be heard: Analyzing Predictive Gender Bias in ASR Models Applied to Dutch Speech Data [13.91630413828167]
本研究は,オランダ語音声データに基づくWhisperモデルの性能格差の同定に焦点をあてる。
性別グループ間の単語誤り率,文字誤り率,BERTに基づく意味的類似性を解析した。
論文 参考訳(メタデータ) (2024-11-14T13:29:09Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Evaluating Bias and Fairness in Gender-Neutral Pretrained
Vision-and-Language Models [23.65626682262062]
我々は,3種類の視覚・言語モデルを用いた事前学習および微調整後のバイアス増幅の定量化を行う。
全体として、事前学習および微調整後のバイアス増幅は独立である。
論文 参考訳(メタデータ) (2023-10-26T16:19:19Z) - No Pitch Left Behind: Addressing Gender Unbalance in Automatic Speech
Recognition through Pitch Manipulation [20.731375136671605]
本稿では,基本周波数(f0)とホルマントを操作するデータ拡張手法を提案する。
この手法は、表現不足の女性話者の声をシミュレートすることにより、性別間のデータ不均衡を低減する。
自発性英語音声の実験では,女性話者の発話に対して,WERの相対的な改善が9.87%に達することが示された。
論文 参考訳(メタデータ) (2023-10-10T12:55:22Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - A Study of Gender Impact in Self-supervised Models for Speech-to-Text
Systems [25.468558523679363]
我々は、事前学習データにおいて、性別固有のwav2vec 2.0モデルを、性別バランスの異なるモデルと比較し、比較する。
エンドツーエンドのASRシステムを微調整する前に、性別別事前学習を用いて、全体的なパフォーマンスを低く観察する。
論文 参考訳(メタデータ) (2022-04-04T11:28:19Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。