論文の概要: Directional Bias Amplification
- arxiv url: http://arxiv.org/abs/2102.12594v1
- Date: Wed, 24 Feb 2021 22:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 15:58:40.553417
- Title: Directional Bias Amplification
- Title(参考訳): Directional Bias Amplification
- Authors: Angelina Wang and Olga Russakovsky
- Abstract要約: バイアス増幅(bias amplification)は、モデルがトレーニングしたデータに存在するバイアスを増幅する傾向である。
バイアス増幅を測定するためのメトリックは、Zhao et alによるセミナル作品に導入されました。
バイアス増幅測定のための新しい分離指標である$textbiasamp_rightarrow$(方向バイアス増幅)を紹介し分析する。
- 参考スコア(独自算出の注目度): 21.482317675176443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mitigating bias in machine learning systems requires refining our
understanding of bias propagation pathways: from societal structures to
large-scale data to trained models to impact on society. In this work, we focus
on one aspect of the problem, namely bias amplification: the tendency of models
to amplify the biases present in the data they are trained on. A metric for
measuring bias amplification was introduced in the seminal work by Zhao et al.
(2017); however, as we demonstrate, this metric suffers from a number of
shortcomings including conflating different types of bias amplification and
failing to account for varying base rates of protected classes. We introduce
and analyze a new, decoupled metric for measuring bias amplification,
$\text{BiasAmp}_{\rightarrow}$ (Directional Bias Amplification). We thoroughly
analyze and discuss both the technical assumptions and the normative
implications of this metric. We provide suggestions about its measurement by
cautioning against predicting sensitive attributes, encouraging the use of
confidence intervals due to fluctuations in the fairness of models across runs,
and discussing the limitations of what this metric captures. Throughout this
paper, we work to provide an interrogative look at the technical measurement of
bias amplification, guided by our normative ideas of what we want it to
encompass.
- Abstract(参考訳): 機械学習システムにおけるバイアスの軽減には、社会構造から大規模データ、社会に影響を及ぼす訓練されたモデルまで、バイアス伝播経路の理解を深める必要があります。
本研究では,学習中のデータに含まれるバイアスを増幅するモデルの傾向を,バイアス増幅という,問題の1つの側面に焦点をあてる。
バイアス増幅を測定するためのメトリックは、Zhao et alによるセミナル作品に導入されました。
(2017) しかし、この指標は、様々な種類のバイアス増幅を混在させ、保護されたクラスの様々なベースレートを考慮していないなど、多くの欠点に悩まされている。
我々は、バイアス増幅を測定するための新しい分離されたメトリクス、$\text{BiasAmp}_{\rightarrow}$(Directional Bias Amplification)を紹介し、分析する。
このメトリクスの技術的な仮定と規範的な意味の両方を徹底的に分析し、議論します。
我々は,敏感な属性の予測に注意を払い,モデル間の公平さのゆらぎによる信頼区間の使用を奨励し,この測定結果の限界を議論することによって,その測定について提案する。
本稿では, 偏差増幅の技術的測定を疑問視し, 包含したいものに関する規範的考えに導かれる。
関連論文リスト
- Say My Name: a Model's Bias Discovery Framework [18.887645415907166]
Say My Name'(SaMyNa)は、ディープモデル内のバイアスを意味的に識別する最初のツールです。
既存の方法とは異なり、私たちのアプローチはモデルによって学習されたバイアスに焦点を当てています。
本手法は,タスク関連情報をアンタングル化し,偏見を解析するためのツールとして提案する。
論文 参考訳(メタデータ) (2024-08-18T18:50:59Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Men Also Do Laundry: Multi-Attribute Bias Amplification [2.492300648514129]
コンピュータビジョンシステムは再生だけでなく、有害な社会的バイアスを増幅している。
マルチ属性バイアス増幅という新しい指標を提案する。
提案手法は,COCOおよびImsituデータセットにおける性別バイアス増幅の分析を通じて検証する。
論文 参考訳(メタデータ) (2022-10-21T12:50:15Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - A Systematic Study of Bias Amplification [16.245943270343343]
近年の研究では、機械学習モデルによる予測は、トレーニングデータに存在するバイアスを増幅することができることが示唆されている。
我々は、バイアス増幅の発生時期と発生状況について、初めて体系的に制御された研究を行う。
論文 参考訳(メタデータ) (2022-01-27T18:04:24Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。