論文の概要: Model-Based Approach for Measuring the Fairness in ASR
- arxiv url: http://arxiv.org/abs/2109.09061v1
- Date: Sun, 19 Sep 2021 05:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:42:48.244394
- Title: Model-Based Approach for Measuring the Fairness in ASR
- Title(参考訳): ASRの公正度測定のためのモデルベースアプローチ
- Authors: Zhe Liu, Irina-Elena Veliche, Fuchun Peng
- Abstract要約: 興味のサブグループ間でのWER差をよりよく測定し解釈するために、混合効果ポアソン回帰を導入する。
本稿では,合成音声データと実世界の音声データに対するモデルベースアプローチの有効性を示す。
- 参考スコア(独自算出の注目度): 11.076999352942954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The issue of fairness arises when the automatic speech recognition (ASR)
systems do not perform equally well for all subgroups of the population. In any
fairness measurement studies for ASR, the open questions of how to control the
nuisance factors, how to handle unobserved heterogeneity across speakers, and
how to trace the source of any word error rate (WER) gap among different
subgroups are especially important - if not appropriately accounted for,
incorrect conclusions will be drawn. In this paper, we introduce mixed-effects
Poisson regression to better measure and interpret any WER difference among
subgroups of interest. Particularly, the presented method can effectively
address the three problems raised above and is very flexible to use in
practical disparity analyses. We demonstrate the validity of proposed
model-based approach on both synthetic and real-world speech data.
- Abstract(参考訳): 公平性の問題は、自動音声認識システム(ASR)が人口のすべてのサブグループに対して等しく機能しない場合に生じる。
asrの公平性測定研究において、ニュアサンス因子の制御方法、話者間の観測されていない不均一性に対処する方法、異なるサブグループ間の単語誤り率(wer)ギャップの出所を追跡する方法に関するオープンな質問は、特に重要である。
本稿では,関心サブグループ間のWER差をよりよく測定し,解釈するために,混合効果ポアソン回帰を導入する。
特に,提案手法は上述した3つの問題に効果的に対処でき,実用的格差分析に非常に柔軟である。
合成および実世界の音声データに対するモデルベースアプローチの有効性を示す。
関連論文リスト
- Reconciling Heterogeneous Effects in Causal Inference [44.99833362998488]
本稿では、機械学習におけるモデル乗法にReconcileアルゴリズムを適用し、因果推論における異種効果を再現する。
本研究の結果は,医療,保険,住宅などの高額な事業において,公正な成果の確保に有意な意味を持っている。
論文 参考訳(メタデータ) (2024-06-05T18:43:46Z) - Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - DINER: Debiasing Aspect-based Sentiment Analysis with Multi-variable Causal Inference [21.929902181609936]
本稿では,多変量因果推論に基づく新しいフレームワークを提案する。
レビューブランチでは、バイアスはコンテキストからの間接的なコンバウンドとしてモデル化される。
アスペクトブランチでは、バイアスはラベルとの直接的な相関として記述される。
論文 参考訳(メタデータ) (2024-03-02T10:38:31Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Beyond IID: data-driven decision-making in heterogeneous environments [8.714718004930363]
本研究では,未知の分布と異なる分布から過去のサンプルを生成する,データ駆動型意思決定フレームワークについて検討する。
この研究は、中央データ駆動型ポリシのパフォーマンスだけでなく、ほぼ最適のポリシーも分析することを目的としている。
論文 参考訳(メタデータ) (2022-06-20T08:43:43Z) - Addressing Fairness, Bias and Class Imbalance in Machine Learning: the
FBI-loss [11.291571222801027]
公正性・バイアス・不均衡に関する問題に対処する統合的損失補正(FBI-loss)を提案する。
提案手法の補正能力は実世界の3つのベンチマークで評価される。
論文 参考訳(メタデータ) (2021-05-13T15:01:14Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。