論文の概要: A Study on Bias and Fairness In Deep Speaker Recognition
- arxiv url: http://arxiv.org/abs/2303.08026v1
- Date: Tue, 14 Mar 2023 16:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:15:30.313776
- Title: A Study on Bias and Fairness In Deep Speaker Recognition
- Title(参考訳): 深部話者認識におけるバイアスと公平性の検討
- Authors: Amirhossein Hajavi and Ali Etemad
- Abstract要約: 本稿では,近年の話者認識システムにおける公平性の概念について,統計的パリティ,等化オッド,等化オポチュニティの3つの一般的な定義に基づいて検討する。
SRシステムのトレーニングにおいて,一般的な5つのニューラルネットワークと5つの損失関数について検討し,性別や国籍グループに対する公正性を評価した。
- 参考スコア(独自算出の注目度): 25.71206255965502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the ubiquity of smart devices that use speaker recognition (SR) systems
as a means of authenticating individuals and personalizing their services,
fairness of SR systems has becomes an important point of focus. In this paper
we study the notion of fairness in recent SR systems based on 3 popular and
relevant definitions, namely Statistical Parity, Equalized Odds, and Equal
Opportunity. We examine 5 popular neural architectures and 5 commonly used loss
functions in training SR systems, while evaluating their fairness against
gender and nationality groups. Our detailed experiments shed light on this
concept and demonstrate that more sophisticated encoder architectures better
align with the definitions of fairness. Additionally, we find that the choice
of loss functions can significantly impact the bias of SR models.
- Abstract(参考訳): 個人を認証し、サービスをパーソナライズする手段として、話者認識(SR)システムを使用するスマートデバイスの普及に伴い、SRシステムの公正性は重要な焦点となっている。
本稿では,最近のsrシステムにおける公平性の概念を,統計的パリティ,等化オッズ,等機会という3つの一般的かつ関連する定義に基づいて検討する。
SRシステムのトレーニングにおいて,一般的な5つのニューラルネットワークと5つの損失関数について検討し,性別や国籍グループに対する公正性を評価した。
我々の詳細な実験は、この概念に光を当て、より洗練されたエンコーダアーキテクチャが公正の定義に合致することを示した。
さらに,損失関数の選択はSRモデルのバイアスに大きく影響することがわかった。
関連論文リスト
- Towards Fair RAG: On the Impact of Fair Ranking in Retrieval-Augmented Generation [53.285436927963865]
本稿では,公正ランキングと統合されたRAGシステムの最初の体系的評価について述べる。
本稿では,RAGシステムで活用されるランキングにおいて,各項目の公正な露出を測定することに焦点を当てる。
以上の結果から,RAGシステムは高い世代品質を維持でき,多くの場合,従来のRAGシステムよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-09-17T23:10:04Z) - FairLENS: Assessing Fairness in Law Enforcement Speech Recognition [37.75768315119143]
本研究では,異なるモデル間の公平さの相違を検証するための,新しい適応性評価手法を提案する。
我々は1つのオープンソースと11の商用 ASR モデルに対してフェアネスアセスメントを行った。
論文 参考訳(メタデータ) (2024-05-21T19:23:40Z) - Toward Practical Automatic Speech Recognition and Post-Processing: a
Call for Explainable Error Benchmark Guideline [12.197453599489963]
本稿では,Error Explainable Benchmark (EEB) データセットの開発を提案する。
このデータセットは、音声レベルとテキストレベルの両方を考慮しているが、モデルの欠点を詳細に理解することができる。
我々の提案は、より現実世界中心の評価のための構造化された経路を提供し、ニュアンスドシステムの弱点の検出と修正を可能にします。
論文 参考訳(メタデータ) (2024-01-26T03:42:45Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Fairness Indicators for Systematic Assessments of Visual Feature
Extractors [21.141633753573764]
視覚系の害やバイアスの定量化を目的とした3つの公正度指標を提案する。
我々の指標は、フェアネス評価のために収集された既存の公開データセットを使用する。
これらの指標は、新しいコンピュータビジョン技術による幅広い影響の徹底的な分析の代替にはならない。
論文 参考訳(メタデータ) (2022-02-15T17:45:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Discovering "Semantics" in Super-Resolution Networks [54.45509260681529]
超解像(SR)は低レベルの視覚領域の基本的で代表的な課題である。
一般に、SRネットワークから抽出された特徴は特定の意味情報を持たないと考えられている。
SRネットワークで「セマンティック」を見つけることはできますか?
論文 参考訳(メタデータ) (2021-08-01T09:12:44Z) - Improving Fairness in Speaker Recognition [4.94706680113206]
最先端の深層話者認識システムによって達成される性能の格差を調査します。
統計学的にバランスのとれたトレーニングセットで訓練されたモデルでは,異なるグループでより公平な行動を示すが,精度は高い。
論文 参考訳(メタデータ) (2021-04-29T01:08:53Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。