論文の概要: Inclusive Speaker Verification with Adaptive thresholding
- arxiv url: http://arxiv.org/abs/2111.05501v1
- Date: Wed, 10 Nov 2021 02:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 22:55:34.628455
- Title: Inclusive Speaker Verification with Adaptive thresholding
- Title(参考訳): 適応しきい値を用いた包括的話者検証
- Authors: Navdeep Jain, Hongcheng Wang
- Abstract要約: 性別や年齢の異なるFARでは、性別や年齢の異なるグループに対してFRR(False Rejection Rate)が異なることが判明した。
所望のFARに対して全ユーザに対してFRRを最適化するために,SVのためのコンテキスト(性別,年齢など)適応型しきい値設定フレームワークを提案する。
提案手法は,より効率的なSVシステム構築に有効であることを示す。
- 参考スコア(独自算出の注目度): 2.157478102241537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While using a speaker verification (SV) based system in a commercial
application, it is important that customers have an inclusive experience
irrespective of their gender, age, or ethnicity. In this paper, we analyze the
impact of gender and age on SV and find that for a desired common False
Acceptance Rate (FAR) across different gender and age groups, the False
Rejection Rate (FRR) is different for different gender and age groups. To
optimize FRR for all users for a desired FAR, we propose a context (e.g.
gender, age) adaptive thresholding framework for SV. The context can be
available as prior information for many practical applications. We also propose
a concatenated gender/age detection model to algorithmically derive the context
in absence of such prior information. We experimentally show that our
context-adaptive thresholding method is effective in building a more efficient
inclusive SV system. Specifically, we show that we can reduce FRR for specific
gender for a desired FAR on the voxceleb1 test set by using gender-specific
thresholds. Similar analysis on OGI kids' speech corpus shows that by using an
age-specific threshold, we can significantly reduce FRR for certain age groups
for desired FAR.
- Abstract(参考訳): 商業アプリケーションにおいて話者検証(SV)に基づくシステムを利用することは,性別,年齢,民族に関係なく,包括的体験を顧客に提供することが重要である。
本稿では、性別と年齢がsvに与える影響を分析し、性別と年齢の異なるグループにまたがる所望の共通誤受率(far)については、性別と年齢の異なるグループでは偽拒絶率(frr)が異なることを見出した。
希望する範囲で全ユーザに対してfrrを最適化するために,svのためのコンテキスト(性別,年齢)適応しきい値設定フレームワークを提案する。
コンテキストは、多くの実用的なアプリケーションのための事前情報として利用できる。
また,このような事前情報のない文脈をアルゴリズム的に導出する,結合性/年齢検出モデルを提案する。
提案手法は,より効率的な包摂的SVシステム構築に有効であることを示す。
具体的には, 性別別しきい値を用いて, Voxceleb1テストセットにおいて, 所望のFARに対して, FRRを低減できることを示す。
OGI児の音声コーパスの類似分析は、年齢別閾値を用いて、所望のFARに対する特定の年齢群に対するFRRを大幅に削減できることを示している。
関連論文リスト
- No Pitch Left Behind: Addressing Gender Unbalance in Automatic Speech
Recognition through Pitch Manipulation [20.731375136671605]
本稿では,基本周波数(f0)とホルマントを操作するデータ拡張手法を提案する。
この手法は、表現不足の女性話者の声をシミュレートすることにより、性別間のデータ不均衡を低減する。
自発性英語音声の実験では,女性話者の発話に対して,WERの相対的な改善が9.87%に達することが示された。
論文 参考訳(メタデータ) (2023-10-10T12:55:22Z) - Elucidate Gender Fairness in Singing Voice Transcription [5.434559527051845]
歌唱音声書き起こし(SVT)における性差が性差につながるかどうかを考察する。
ジェンダーデータの不均衡ではなく、ピッチの分布が異なることが、この格差に寄与している。
この問題に対処するために、属性予測器を用いて性別ラベルを予測し、SVTシステムを逆さまに訓練し、音響表現の性差を強制する手法を提案する。
論文 参考訳(メタデータ) (2023-08-05T15:15:01Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。