論文の概要: Fair Preprocessing: Towards Understanding Compositional Fairness of Data
Transformers in Machine Learning Pipeline
- arxiv url: http://arxiv.org/abs/2106.06054v2
- Date: Mon, 14 Jun 2021 17:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 20:36:27.133025
- Title: Fair Preprocessing: Towards Understanding Compositional Fairness of Data
Transformers in Machine Learning Pipeline
- Title(参考訳): Fair Preprocessing: 機械学習パイプラインにおけるデータ変換器の構成公正性の理解に向けて
- Authors: Sumon Biswas and Hridesh Rajan
- Abstract要約: 機械学習モデルにおける不公平性を計測し緩和する研究が実施されている。
データ前処理段階での特定の変換による不公平さを計測する研究は行われていない。
- 参考スコア(独自算出の注目度): 9.066484448478551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, many incidents have been reported where machine learning
models exhibited discrimination among people based on race, sex, age, etc.
Research has been conducted to measure and mitigate unfairness in machine
learning models. For a machine learning task, it is a common practice to build
a pipeline that includes an ordered set of data preprocessing stages followed
by a classifier. However, most of the research on fairness has considered a
single classifier based prediction task. What are the fairness impacts of the
preprocessing stages in machine learning pipeline? Furthermore, studies showed
that often the root cause of unfairness is ingrained in the data itself, rather
than the model. But no research has been conducted to measure the unfairness
caused by a specific transformation made in the data preprocessing stage. In
this paper, we introduced the causal method of fairness to reason about the
fairness impact of data preprocessing stages in ML pipeline. We leveraged
existing metrics to define the fairness measures of the stages. Then we
conducted a detailed fairness evaluation of the preprocessing stages in 37
pipelines collected from three different sources. Our results show that certain
data transformers are causing the model to exhibit unfairness. We identified a
number of fairness patterns in several categories of data transformers.
Finally, we showed how the local fairness of a preprocessing stage composes in
the global fairness of the pipeline. We used the fairness composition to choose
appropriate downstream transformer that mitigates unfairness in the machine
learning pipeline.
- Abstract(参考訳): 近年では、人種、性別、年齢などに基づいて、機械学習モデルが差別を示す事件が数多く報告されている。
機械学習モデルの不公平さを計測し緩和するために研究が進められている。
機械学習タスクでは、順序付けられたデータ前処理ステージと次に分類器を含むパイプラインを構築するのが一般的である。
しかし、公平性に関するほとんどの研究は、単一の分類子に基づく予測タスクを検討してきた。
機械学習パイプラインにおける前処理ステージの公平性への影響はどのようなものか?
さらに、研究は、しばしば不公平の根本原因がモデルではなくデータ自体に浸透していることを示した。
しかし、データ前処理段階での特定の変換による不公平さを測定する研究は行われていない。
本稿では,MLパイプラインにおけるデータ前処理ステージの公平性への影響を判断するために,フェアネスの因果的方法を提案する。
既存のメトリクスを活用して、ステージの公平度尺度を定義しました。
そして,3つの異なるソースから収集した37個のパイプラインにおいて,前処理段階の詳細な公平性評価を行った。
その結果、あるデータトランスフォーマーがモデルに不公平な結果をもたらしていることがわかった。
データトランスフォーマーのいくつかのカテゴリで,公正なパターンをいくつも同定した。
最後に,前処理ステージの局所的フェアネスがパイプラインのグローバルフェアネスにおいてどのように構成されるかを示した。
機械学習パイプラインにおける不公平を緩和する適切な下流変圧器を選択するためにフェアネス構成を用いた。
関連論文リスト
- AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Fair Generalized Linear Mixed Models [0.0]
機械学習の公正性は、データとモデルの不正確さのバイアスが差別的な決定に結びつかないことを保証することを目的としている。
両問題を同時に処理できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-15T11:42:41Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain [0.0913755431537592]
本稿では,Law Schoolのニューラルネットワークを用いた変圧器ネットワークにおけるフェアネス制約の予備的検討を行う。
フェアネス指標を用いて評価を行い、フェアネスと精度のトレードオフを確認しました。
論文 参考訳(メタデータ) (2022-06-03T06:34:16Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。