論文の概要: Demographic Parity: Mitigating Biases in Real-World Data
- arxiv url: http://arxiv.org/abs/2309.17347v1
- Date: Wed, 27 Sep 2023 11:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 12:54:56.256577
- Title: Demographic Parity: Mitigating Biases in Real-World Data
- Title(参考訳): Demographic Parity: リアルタイムデータにおけるバイアスの軽減
- Authors: Orestis Loukas, Ho-Ryun Chung
- Abstract要約: 分類ユーティリティを保ちながら不要なバイアスを除去することを保証する頑健な方法論を提案する。
我々のアプローチは、実世界のデータから導出することで、常にモデルに依存しない方法でこれを達成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer-based decision systems are widely used to automate decisions in many
aspects of everyday life, which include sensitive areas like hiring, loaning
and even criminal sentencing. A decision pipeline heavily relies on large
volumes of historical real-world data for training its models. However,
historical training data often contains gender, racial or other biases which
are propagated to the trained models influencing computer-based decisions. In
this work, we propose a robust methodology that guarantees the removal of
unwanted biases while maximally preserving classification utility. Our approach
can always achieve this in a model-independent way by deriving from real-world
data the asymptotic dataset that uniquely encodes demographic parity and
realism. As a proof-of-principle, we deduce from public census records such an
asymptotic dataset from which synthetic samples can be generated to train
well-established classifiers. Benchmarking the generalization capability of
these classifiers trained on our synthetic data, we confirm the absence of any
explicit or implicit bias in the computer-aided decision.
- Abstract(参考訳): コンピュータベースの意思決定システムは、雇用、融資、さらには刑事判決など、日常生活の多くの面で意思決定を自動化するために広く利用されている。
意思決定パイプラインは、モデルトレーニングのために、大量の実世界データに大きく依存しています。
しかしながら、過去のトレーニングデータは、しばしば、コンピュータベースの決定に影響を与える訓練されたモデルに伝播する性別、人種、その他のバイアスを含んでいる。
本研究では,分類ユーティリティを最大に保ちながら,望ましくないバイアスの除去を保証する頑健な方法論を提案する。
我々のアプローチは、人口統計学とリアリズムを一意にエンコードする漸近的データセットを現実世界のデータから導き出すことで、常にモデルに依存しない方法でこれを達成することができる。
本研究は, 一般国勢調査記録から合成サンプルを生成可能な漸近データセットを推定し, 確立された分類器を訓練する。
合成データに基づいて学習したこれらの分類器の一般化能力をベンチマークし、コンピュータ支援決定における明示的あるいは暗黙的な偏見がないことを確認する。
関連論文リスト
- Online Performance Estimation with Unlabeled Data: A Bayesian Application of the Hui-Walter Paradigm [0.0]
我々は、伝統的に疫学や医学に応用されたHui-Walterパラダイムを機械学習の分野に適用する。
根拠のないシナリオでは、偽陽性率、偽陰性率、先行といった重要なパフォーマンス指標を推定する。
オンラインデータを扱うためのこのパラダイムを拡張し、動的データ環境の新しい可能性を広げます。
論文 参考訳(メタデータ) (2024-01-17T17:46:10Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Evaluating Predictive Uncertainty and Robustness to Distributional Shift
Using Real World Data [0.0]
シフト天気予報データセットを用いて、一般的な回帰作業のためのメトリクスを提案する。
また,これらの指標を用いたベースライン手法の評価を行った。
論文 参考訳(メタデータ) (2021-11-08T17:32:10Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Removing biased data to improve fairness and accuracy [1.3535770763481905]
偏りのあるトレーニングデータを識別・削除するためのブラックボックス手法を提案する。
このような偏りのないデータに基づいてトレーニングされた機械学習モデルは、個々の差別が低く、多くの場合0%である。
個人差と精度の点で,従来の7つのアプローチよりも優れていた。
論文 参考訳(メタデータ) (2021-02-05T08:34:45Z) - DomainMix: Learning Generalizable Person Re-Identification Without Human
Annotations [89.78473564527688]
本稿では,ラベル付き合成データセットとラベル付き実世界のデータセットを用いてユニバーサルモデルをトレーニングする方法を示す。
このように、人間のアノテーションはもはや不要であり、大規模で多様な現実世界のデータセットにスケーラブルである。
実験結果から,提案手法は完全な人間のアノテーションで訓練されたアノテーションとほぼ同等であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T08:15:53Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。