論文の概要: Inclusive Speaker Verification with Adaptive thresholding
- arxiv url: http://arxiv.org/abs/2111.05501v1
- Date: Wed, 10 Nov 2021 02:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 22:55:34.628455
- Title: Inclusive Speaker Verification with Adaptive thresholding
- Title(参考訳): 適応しきい値を用いた包括的話者検証
- Authors: Navdeep Jain, Hongcheng Wang
- Abstract要約: 性別や年齢の異なるFARでは、性別や年齢の異なるグループに対してFRR(False Rejection Rate)が異なることが判明した。
所望のFARに対して全ユーザに対してFRRを最適化するために,SVのためのコンテキスト(性別,年齢など)適応型しきい値設定フレームワークを提案する。
提案手法は,より効率的なSVシステム構築に有効であることを示す。
- 参考スコア(独自算出の注目度): 2.157478102241537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While using a speaker verification (SV) based system in a commercial
application, it is important that customers have an inclusive experience
irrespective of their gender, age, or ethnicity. In this paper, we analyze the
impact of gender and age on SV and find that for a desired common False
Acceptance Rate (FAR) across different gender and age groups, the False
Rejection Rate (FRR) is different for different gender and age groups. To
optimize FRR for all users for a desired FAR, we propose a context (e.g.
gender, age) adaptive thresholding framework for SV. The context can be
available as prior information for many practical applications. We also propose
a concatenated gender/age detection model to algorithmically derive the context
in absence of such prior information. We experimentally show that our
context-adaptive thresholding method is effective in building a more efficient
inclusive SV system. Specifically, we show that we can reduce FRR for specific
gender for a desired FAR on the voxceleb1 test set by using gender-specific
thresholds. Similar analysis on OGI kids' speech corpus shows that by using an
age-specific threshold, we can significantly reduce FRR for certain age groups
for desired FAR.
- Abstract(参考訳): 商業アプリケーションにおいて話者検証(SV)に基づくシステムを利用することは,性別,年齢,民族に関係なく,包括的体験を顧客に提供することが重要である。
本稿では、性別と年齢がsvに与える影響を分析し、性別と年齢の異なるグループにまたがる所望の共通誤受率(far)については、性別と年齢の異なるグループでは偽拒絶率(frr)が異なることを見出した。
希望する範囲で全ユーザに対してfrrを最適化するために,svのためのコンテキスト(性別,年齢)適応しきい値設定フレームワークを提案する。
コンテキストは、多くの実用的なアプリケーションのための事前情報として利用できる。
また,このような事前情報のない文脈をアルゴリズム的に導出する,結合性/年齢検出モデルを提案する。
提案手法は,より効率的な包摂的SVシステム構築に有効であることを示す。
具体的には, 性別別しきい値を用いて, Voxceleb1テストセットにおいて, 所望のFARに対して, FRRを低減できることを示す。
OGI児の音声コーパスの類似分析は、年齢別閾値を用いて、所望のFARに対する特定の年齢群に対するFRRを大幅に削減できることを示している。
関連論文リスト
- DENOASR: Debiasing ASRs through Selective Denoising [5.544079217915537]
本稿では,2つの性別グループ間の単語誤り率の相違を低減するために,選択的なデノケーション手法であるDeNOASRを提案する。
一般的な2つの音声認識手法である「DEMUCS」と「LE」を組み合わせることで、全体的な性能を損なうことなく、ASRの相違を効果的に軽減できることがわかった。
論文 参考訳(メタデータ) (2024-10-22T05:39:24Z) - Does RAG Introduce Unfairness in LLMs? Evaluating Fairness in Retrieval-Augmented Generation Systems [18.926129063000264]
RAG(Retrieval-Augmented Generation)は近年,外部知識ソースの統合能力の向上に注目が集まっている。
本稿では,RAG法に適した公平度評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-29T22:04:26Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。