論文の概要: A Study on Bias and Fairness In Deep Speaker Recognition
- arxiv url: http://arxiv.org/abs/2303.08026v1
- Date: Tue, 14 Mar 2023 16:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:15:30.313776
- Title: A Study on Bias and Fairness In Deep Speaker Recognition
- Title(参考訳): 深部話者認識におけるバイアスと公平性の検討
- Authors: Amirhossein Hajavi and Ali Etemad
- Abstract要約: 本稿では,近年の話者認識システムにおける公平性の概念について,統計的パリティ,等化オッド,等化オポチュニティの3つの一般的な定義に基づいて検討する。
SRシステムのトレーニングにおいて,一般的な5つのニューラルネットワークと5つの損失関数について検討し,性別や国籍グループに対する公正性を評価した。
- 参考スコア(独自算出の注目度): 25.71206255965502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the ubiquity of smart devices that use speaker recognition (SR) systems
as a means of authenticating individuals and personalizing their services,
fairness of SR systems has becomes an important point of focus. In this paper
we study the notion of fairness in recent SR systems based on 3 popular and
relevant definitions, namely Statistical Parity, Equalized Odds, and Equal
Opportunity. We examine 5 popular neural architectures and 5 commonly used loss
functions in training SR systems, while evaluating their fairness against
gender and nationality groups. Our detailed experiments shed light on this
concept and demonstrate that more sophisticated encoder architectures better
align with the definitions of fairness. Additionally, we find that the choice
of loss functions can significantly impact the bias of SR models.
- Abstract(参考訳): 個人を認証し、サービスをパーソナライズする手段として、話者認識(SR)システムを使用するスマートデバイスの普及に伴い、SRシステムの公正性は重要な焦点となっている。
本稿では,最近のsrシステムにおける公平性の概念を,統計的パリティ,等化オッズ,等機会という3つの一般的かつ関連する定義に基づいて検討する。
SRシステムのトレーニングにおいて,一般的な5つのニューラルネットワークと5つの損失関数について検討し,性別や国籍グループに対する公正性を評価した。
我々の詳細な実験は、この概念に光を当て、より洗練されたエンコーダアーキテクチャが公正の定義に合致することを示した。
さらに,損失関数の選択はSRモデルのバイアスに大きく影響することがわかった。
関連論文リスト
- Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fair Multi-Exit Framework for Facial Attribute Classification [16.493514215214983]
本稿では,マルチエグジットフレームワークの概念を拡張した。
精度を重視した既存の作業とは異なり、当社のマルチエグジットフレームワークはフェアネス指向です。
実験結果から,提案フレームワークはCelebAおよびUTK Faceデータセットの最先端技術よりも公正性条件を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-01-08T06:18:51Z) - On the Importance of Architectures and Hyperparameters for Fairness in
Face Recognition [63.86246554567035]
顔認識システムは、機密で影響力のあるタスクのために、政府機関や請負業者によって世界中に展開されている。
広く使われているにもかかわらず、これらのシステムは、性別や人種など、様々な社会デマグラフィー次元に偏見を示すことが知られている。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Evaluating the Generalization Ability of Super-Resolution Networks [49.78131356085062]
本稿では,SRGAの一般化評価指標を提案する。
SRGAは、一般化能力を測定するために出力画像ではなく、ディープネットワークの内部特性の統計特性を利用する。
我々は、SRGAとPIESデータセットを用いて、既存のSRモデルを一般化能力でベンチマークする。
論文 参考訳(メタデータ) (2022-05-14T09:33:20Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Discovering "Semantics" in Super-Resolution Networks [54.45509260681529]
超解像(SR)は低レベルの視覚領域の基本的で代表的な課題である。
一般に、SRネットワークから抽出された特徴は特定の意味情報を持たないと考えられている。
SRネットワークで「セマンティック」を見つけることはできますか?
論文 参考訳(メタデータ) (2021-08-01T09:12:44Z) - Improving Fairness in Speaker Recognition [4.94706680113206]
最先端の深層話者認識システムによって達成される性能の格差を調査します。
統計学的にバランスのとれたトレーニングセットで訓練されたモデルでは,異なるグループでより公平な行動を示すが,精度は高い。
論文 参考訳(メタデータ) (2021-04-29T01:08:53Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z) - On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion [1.116812194101501]
意思決定支援システムは、多くの実践的な展開の文脈で差別的であることが判明した。
非比較正義の原理に基づく新しい公正概念を提案する。
提案したフェアネスの概念は、比較フェアネスの概念の観点からも保証を提供することを示す。
論文 参考訳(メタデータ) (2020-09-09T16:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。