論文の概要: Gender Fairness in Audio Deepfake Detection: Performance and Disparity Analysis
- arxiv url: http://arxiv.org/abs/2603.09007v1
- Date: Mon, 09 Mar 2026 22:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.880627
- Title: Gender Fairness in Audio Deepfake Detection: Performance and Disparity Analysis
- Title(参考訳): ディープフェイク検出におけるジェンダーフェアネス:性能と差異分析
- Authors: Aishwarya Fursule, Shruti Kshirsagar, Anderson R. Avila,
- Abstract要約: 我々は,音声ディープフェイク検出モデルにおいて,ジェンダー依存のパフォーマンスと公平性について,徹底的に分析を試みた。
以上の結果から,男女間のEER差が小さくても,公平性を考慮した評価では,誤差分布の相違が明らかとなった。
この研究は、より公平で堅牢で信頼性の高いオーディオディープフェイク検出システムを開発する上で、公平性を考慮した評価の重要性を強調している。
- 参考スコア(独自算出の注目度): 2.000890150701116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Audio deepfake detection aims to detect real human voices from those generated by Artificial Intelligence (AI) and has emerged as a significant problem in the field of voice biometrics systems. With the ever-improving quality of synthetic voice, the probability of such a voice being exploited for illicit practices like identity thest and impersonation increases. Although significant progress has been made in the field of Audio Deepfake Detection in recent times, the issue of gender bias remains underexplored and in its nascent stage In this paper, we have attempted a thorough analysis of gender dependent performance and fairness in audio deepfake detection models. We have used the ASVspoof 5 dataset and train a ResNet-18 classifier and evaluate detection performance across four different audio features, and compared the performance with baseline AASIST model. Beyond conventional metrics such as Equal Error Rate (EER %), we incorporated five established fairness metrics to quantify gender disparities in the model. Our results show that even when the overall EER difference between genders appears low, fairness-aware evaluation reveals disparities in error distribution that are obscured by aggregate performance measures. These findings demonstrate that reliance on standard metrics is unreliable, whereas fairness metrics provide critical insights into demographic-specific failure modes. This work highlights the importance of fairness-aware evaluation for developing a more equitable, robust, and trustworthy audio deepfake detection system.
- Abstract(参考訳): オーディオディープフェイク検出は、人工知能(AI)によって生成された音声から人間の声を検出することを目的としており、音声バイオメトリックスシステムにおいて重要な問題となっている。
合成音声の質が常に向上するにつれて、アイデンティティー・セストや偽造のような違法な行為のために、そのような声が利用される確率が増大する。
近年のオーディオディープフェイク検出の分野では大きな進展がみられてきたが、性別バイアスの問題はまだ未解明であり、その初期段階では、音声ディープフェイク検出モデルにおけるジェンダー依存性能と公平さの徹底的な分析を試みた。
ASVspoof 5データセットを用いて、ResNet-18分類器を訓練し、4つの異なるオーディオ特徴間の検出性能を評価し、ベースラインAASISTモデルと比較した。
EER(Equal Error Rate)などの従来の指標以外にも,モデルの男女格差を定量化するために,確立された公正度指標を5つ組み込んだ。
以上の結果から,男女間のEERの差が小さくても,アグリゲーションによる誤差分布の相違が明らかになることがわかった。
これらの結果は、標準メトリクスへの依存は信頼できないことを示しているが、公正度メトリクスは、人口統計学的固有の障害モードに対する重要な洞察を提供する。
この研究は、より公平で堅牢で信頼性の高いオーディオディープフェイク検出システムを開発する上で、公平性を考慮した評価の重要性を強調している。
関連論文リスト
- Bias in Gender Bias Benchmarks: How Spurious Features Distort Evaluation [116.86965910589775]
対象物の10%だけをマスクしたり、背景が弱くぼやけたりといった、最小限の摂動でさえ、バイアススコアを劇的に変える可能性がある。
これは、現在のバイアス評価がモデル応答を、性別バイアスよりも刺激的な特徴に反映していることを示唆している。
論文 参考訳(メタデータ) (2025-09-09T11:14:11Z) - SCDF: A Speaker Characteristics DeepFake Speech Dataset for Bias Analysis [1.2499537119440245]
話者特性 ディープフェイクデータセットは、男性と女性両方の話者のバランスの取れた表現で237,000以上の発話を含んでいる。
話者特性が検出性能に大きく影響し,性別,言語,年齢,シンセサイザータイプの違いが明らかになった。
これらの知見は、偏見を意識した開発の必要性を強調し、差別的でないディープフェイク検出システムを構築するための基盤を提供する。
論文 参考訳(メタデータ) (2025-08-11T12:58:37Z) - EMO-Debias: Benchmarking Gender Debiasing Techniques in Multi-Label Speech Emotion Recognition [49.27067541740956]
EMO-Debiasは、マルチラベルSERに適用された13のデバイアス手法の大規模比較である。
本研究は, 事前処理, 正規化, 逆学習, バイアス学習者, 分散的ロバストな最適化といった手法を含む。
本分析は公平性と正確性の間のトレードオフを定量化し,どのアプローチが一貫して性差を減少させるのかを同定する。
論文 参考訳(メタデータ) (2025-06-05T05:48:31Z) - FADEL: Uncertainty-aware Fake Audio Detection with Evidential Deep Learning [9.960675988638805]
顕在学習を用いた偽音声検出(FADEL)という新しいフレームワークを提案する。
FADELはモデルの不確実性を予測に組み込んでおり、OODシナリオではより堅牢なパフォーマンスを実現している。
本研究では,異なるスプーフィングアルゴリズム間の平均不確かさと等誤差率(EER)の強い相関関係を解析し,不確かさ推定の有効性を示す。
論文 参考訳(メタデータ) (2025-04-22T07:40:35Z) - $C^2$AV-TSE: Context and Confidence-aware Audio Visual Target Speaker Extraction [80.57232374640911]
我々はMask-And-Recover (MAR)と呼ばれるモデルに依存しない戦略を提案する。
MARは、モダリティ間およびモダリティ間コンテキスト相関を統合し、抽出モジュール内の大域的推論を可能にする。
各サンプルの難易度を向上するために, 精細信頼スコア(FCS)モデルを導入する。
論文 参考訳(メタデータ) (2025-04-01T13:01:30Z) - Exploring Gender Disparities in Automatic Speech Recognition Technology [22.729651340592586]
トレーニングデータにおいて、性別の表現によってパフォーマンスがどう異なるかを分析する。
以上の結果から,トレーニングデータにおける性別比とASR成績との複雑な相互作用が示唆された。
論文 参考訳(メタデータ) (2025-02-25T18:29:38Z) - Everyone deserves their voice to be heard: Analyzing Predictive Gender Bias in ASR Models Applied to Dutch Speech Data [13.91630413828167]
本研究は,オランダ語音声データに基づくWhisperモデルの性能格差の同定に焦点をあてる。
性別グループ間の単語誤り率,文字誤り率,BERTに基づく意味的類似性を解析した。
論文 参考訳(メタデータ) (2024-11-14T13:29:09Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - No Pitch Left Behind: Addressing Gender Unbalance in Automatic Speech
Recognition through Pitch Manipulation [20.731375136671605]
本稿では,基本周波数(f0)とホルマントを操作するデータ拡張手法を提案する。
この手法は、表現不足の女性話者の声をシミュレートすることにより、性別間のデータ不均衡を低減する。
自発性英語音声の実験では,女性話者の発話に対して,WERの相対的な改善が9.87%に達することが示された。
論文 参考訳(メタデータ) (2023-10-10T12:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。