論文の概要: Fairness of Machine Learning Algorithms in Demography
- arxiv url: http://arxiv.org/abs/2202.01013v1
- Date: Wed, 2 Feb 2022 13:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 19:13:18.710551
- Title: Fairness of Machine Learning Algorithms in Demography
- Title(参考訳): デモグラフィーにおける機械学習アルゴリズムの公正性
- Authors: Ibe Chukwuemeka Emmanuel and Ekaterina Mitrofanova
- Abstract要約: この論文は、ロシアの人口統計データセットのモデルフェアネスとプロセスフェアネスの研究に費やされている。
我々は、ニューラルベースアプローチの"ドロップアウト"テクニックからインスピレーションを得て、プロセスの公正性に対処するために"フィーチャードロップアウト"を使用するモデルを提案した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper is devoted to the study of the model fairness and process fairness
of the Russian demographic dataset by making predictions of divorce of the 1st
marriage, religiosity, 1st employment and completion of education. Our goal was
to make classifiers more equitable by reducing their reliance on sensitive
features while increasing or at least maintaining their accuracy. We took
inspiration from "dropout" techniques in neural-based approaches and suggested
a model that uses "feature drop-out" to address process fairness. To evaluate a
classifier's fairness and decide the sensitive features to eliminate, we used
"LIME Explanations". This results in a pool of classifiers due to feature
dropout whose ensemble has been shown to be less reliant on sensitive features
and to have improved or no effect on accuracy. Our empirical study was
performed on four families of classifiers (Logistic Regression, Random Forest,
Bagging, and Adaboost) and carried out on real-life dataset (Russian
demographic data derived from Generations and Gender Survey), and it showed
that all of the models became less dependent on sensitive features (such as
gender, breakup of the 1st partnership, 1st partnership, etc.) and showed
improvements or no impact on accuracy
- Abstract(参考訳): 本稿は,第1回結婚の離婚,宗教性,第1回雇用,教育の完了を予測し,ロシア人口統計データセットのモデルフェアネスとプロセスフェアネスの研究に焦点をあてたものである。
我々のゴールは、機密性のある特徴への依存を減らし、その精度を向上または少なくとも維持することで、分類器をより公平にすることであった。
ニューラルベースアプローチにおける"ドロップアウト"技術から着想を得て,プロセスフェアネスに対処するために"機能ドロップアウト"を使用するモデルを提案した。
分類器の公平性を評価し,除去すべき繊細な特徴を決定するために,我々は「ライム説明」を用いた。
これにより、特徴ドロップアウトによる分類器のプールが発生し、そのアンサンブルは感度の高い特徴に依存せず、精度に改善または全く影響がないことが示されている。
本研究では,4種類の分類器(ロジスティックレグレッション,ランダムフォレスト,バグング,アダブースト)を対象とし,実生活データ(世代・性別調査から得られたロシアの人口統計データ)を用いて実験を行い,すべてのモデルが敏感な特徴(性別,第1次パートナーシップの分割,第1次パートナーシップなど)に依存しなくなり,精度に改善や影響を与えないことを示した。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - TIDE: Textual Identity Detection for Evaluating and Augmenting
Classification and Language Models [0.0]
機械学習モデルは、不公平で不均衡なデータセットから意図しないバイアスを永続することができる。
分類器と言語モデルにおけるテキストの公平性を改善するためのアプローチと組み合わせたデータセットを提案する。
我々は、IDコンテキストの可用性向上に使用できるIDアノテーションと拡張ツールを開発するために、TIDALを活用している。
論文 参考訳(メタデータ) (2023-09-07T21:44:42Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Model Debiasing via Gradient-based Explanation on Representation [14.673988027271388]
本稿では,デリケートな属性やプロキシな属性に関して,デバイアスを行う新しいフェアネスフレームワークを提案する。
我々のフレームワークは、過去の最先端のアプローチよりも、構造化されていないデータセットと構造化されたデータセットの公平性と正確なトレードオフを達成しています。
論文 参考訳(メタデータ) (2023-05-20T11:57:57Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。