論文の概要: Inducing bias is simpler than you think
- arxiv url: http://arxiv.org/abs/2205.15935v1
- Date: Tue, 31 May 2022 16:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:20:35.476661
- Title: Inducing bias is simpler than you think
- Title(参考訳): バイアスの誘発は想像以上にシンプルです
- Authors: Stefano Sarao Mannelli, Federica Gerace, Negar Rostamzadeh, Luca
Saglietti
- Abstract要約: マーガナライゼーションと不公平なグループ表現は、しばしば訓練に使用されるデータの中でトレース可能である。
データ不均衡の解決可能な高次元モデルを導入する。
私たちは、より現実的なデータで観察されるのと同じような不公平な行動を見つけます。
- 参考スコア(独自算出の注目度): 17.34674438843937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning may be oblivious to human bias but it is not immune to its
perpetuation. Marginalisation and iniquitous group representation are often
traceable in the very data used for training, and may be reflected or even
enhanced by the learning models. To counter this, some of the model accuracy
can be traded off for a secondary objective that helps prevent a specific type
of bias. Multiple notions of fairness have been proposed to this end but recent
studies show that some fairness criteria often stand in mutual competition.
In the present work, we introduce a solvable high-dimensional model of data
imbalance, where parametric control over the many bias-inducing factors allows
for an extensive exploration of the bias inheritance mechanism. Through the
tools of statistical physics, we analytically characterise the typical
behaviour of learning models trained in our synthetic framework and find
similar unfairness behaviours as those observed on more realistic data.
However, we also identify a positive transfer effect between the different
subpopulations within the data. This suggests that mixing data with different
statistical properties could be helpful, provided the learning model is made
aware of this structure.
Finally, we analyse the issue of bias mitigation: by reweighing the various
terms in the training loss, we indirectly minimise standard unfairness metrics
and highlight their incompatibilities. Leveraging the insights on positive
transfer, we also propose a theory-informed mitigation strategy, based on the
introduction of coupled learning models. By allowing each model to specialise
on a different community within the data, we find that multiple fairness
criteria and high accuracy can be achieved simultaneously.
- Abstract(参考訳): 機械学習は人間のバイアスには従わないかもしれないが、その持続性に免疫はない。
マージナライゼーションと不公平なグループ表現は、しばしば訓練に使用されるデータの中でトレース可能であり、学習モデルによって反映または強化される。
これに対抗するために、モデルの精度のいくつかは、特定のタイプのバイアスを防ぐための二次目的のためにトレードオフすることができる。
フェアネスの複数の概念がこの目的のために提案されているが、近年の研究では、フェアネスの基準が互いに競合していることが多いことが示されている。
本研究では,多くのバイアス誘導因子に対するパラメトリック制御により,バイアス継承機構の広範囲な探索が可能となる,可解な高次元データ不均衡モデルを提案する。
統計物理学のツールを通して,合成フレームワークで訓練された学習モデルの典型的な振る舞いを分析的に特徴付け,より現実的なデータで観察されたような不公平な振る舞いを見出す。
しかし,データ内の異なる部分集団間での正の伝達効果も確認した。
このことは、学習モデルがこの構造に気付いていれば、異なる統計特性とデータを混ぜることが役立つことを示唆している。
最後に、バイアス緩和の問題を分析し、トレーニング損失の諸条件を和らげることで、標準不公平度メトリクスを間接的に最小化し、それらの非互換性を強調する。
また,肯定的伝達に関する知見を活用することで,協調学習モデルの導入に基づく理論インフォームド緩和戦略を提案する。
各モデルがデータ内の異なるコミュニティを専門とすることで、複数のフェアネス基準と高い精度を同時に達成できることがわかった。
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - An Effective Theory of Bias Amplification [18.648588509429167]
機械学習モデルは、データに存在するバイアスをキャプチャして増幅し、社会的グループ間で異なるテストパフォーマンスをもたらす。
本稿では、従来のニューラルネットワークを単純化した状態下でモデル化するリッジ回帰の文脈において、正確な解析理論を提案する。
我々の理論は、機械学習バイアスの統一的で厳密な説明を提供し、バイアス増幅やマイノリティグループバイアスのような現象に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-07T08:43:22Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency [1.124958340749622]
学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
論文 参考訳(メタデータ) (2024-02-23T19:02:24Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。