論文の概要: Model Mis-specification and Algorithmic Bias
- arxiv url: http://arxiv.org/abs/2105.15182v1
- Date: Mon, 31 May 2021 17:45:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 16:47:03.209229
- Title: Model Mis-specification and Algorithmic Bias
- Title(参考訳): モデル誤特定とアルゴリズムバイアス
- Authors: Runshan Fu, Yangfan Liang, Peter Zhang
- Abstract要約: 機械学習アルゴリズムは、批判的な決定を伝えるためにますます使われています。
偏見に対する懸念が高まっており、アルゴリズムは異なる人口集団の個人に対して不均一な結果をもたらす可能性がある。
本研究では,グループ間の平均予測誤差の差として偏差を測定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning algorithms are increasingly used to inform critical
decisions. There is a growing concern about bias, that algorithms may produce
uneven outcomes for individuals in different demographic groups. In this work,
we measure bias as the difference between mean prediction errors across groups.
We show that even with unbiased input data, when a model is mis-specified: (1)
population-level mean prediction error can still be negligible, but group-level
mean prediction errors can be large; (2) such errors are not equal across
groups; and (3) the difference between errors, i.e., bias, can take the
worst-case realization. That is, when there are two groups of the same size,
mean prediction errors for these two groups have the same magnitude but
opposite signs. In closed form, we show such errors and bias are functions of
the first and second moments of the joint distribution of features (for linear
and probit regressions). We also conduct numerical experiments to show similar
results in more general settings. Our work provides a first step for decoupling
the impact of different causes of bias.
- Abstract(参考訳): 機械学習アルゴリズムは、重要な決定を知らせるためにますます使われている。
偏りに対する懸念が高まり、異なる集団の個人にアルゴリズムが不均一な結果をもたらす可能性がある。
本研究では,グループ間の平均予測誤差の差としてバイアスを測定する。
その結果,(1)集団レベルの平均予測誤差は無視可能であるが,群レベルの平均予測誤差は大きいこと,(2)集団間での誤差は等しくないこと,(3)集団間の誤差の差,すなわちバイアスが最悪のケースの実現につながること,などが判明した。
すなわち、同じ大きさの2つのグループが存在する場合、これらの2つのグループの平均予測誤差は同じ大きさだが反対の符号を持つ。
閉形式では、そのような誤差とバイアスは特徴の合同分布の第1モーメントと第2モーメントの関数である(線形およびプロビット回帰)。
また、より一般的な設定で同様の結果を示す数値実験も行います。
私たちの仕事は、さまざまなバイアスの原因の影響を分離するための第一歩を提供します。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - It's an Alignment, Not a Trade-off: Revisiting Bias and Variance in Deep
Models [51.66015254740692]
深層学習に基づく分類モデルのアンサンブルでは, バイアスと分散がサンプルレベルで一致していることが示される。
我々はこの現象をキャリブレーションと神経崩壊という2つの理論的観点から研究する。
論文 参考訳(メタデータ) (2023-10-13T17:06:34Z) - On Fairness and Stability: Is Estimator Variance a Friend or a Foe? [6.751310968561177]
分散度におけるグループワイドパリティに基づく新しいパフォーマンス指標群を提案する。
フェアネス分析による不確実性定量化手法を再現したオープンソースライブラリを開発し,リリースする。
論文 参考訳(メタデータ) (2023-02-09T09:35:36Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。