論文の概要: Coping with Mistreatment in Fair Algorithms
- arxiv url: http://arxiv.org/abs/2102.10750v1
- Date: Mon, 22 Feb 2021 03:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 11:46:55.213187
- Title: Coping with Mistreatment in Fair Algorithms
- Title(参考訳): 不正処理による公正アルゴリズムの符号化
- Authors: Ankit Kulshrestha, Ilya Safro
- Abstract要約: 教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
- 参考スコア(独自算出の注目度): 1.2183405753834557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning actively impacts our everyday life in almost all endeavors
and domains such as healthcare, finance, and energy. As our dependence on the
machine learning increases, it is inevitable that these algorithms will be used
to make decisions that will have a direct impact on the society spanning all
resolutions from personal choices to world-wide policies. Hence, it is crucial
to ensure that (un)intentional bias does not affect the machine learning
algorithms especially when they are required to take decisions that may have
unintended consequences. Algorithmic fairness techniques have found traction in
the machine learning community and many methods and metrics have been proposed
to ensure and evaluate fairness in algorithms and data collection.
In this paper, we study the algorithmic fairness in a supervised learning
setting and examine the effect of optimizing a classifier for the Equal
Opportunity metric. We demonstrate that such a classifier has an increased
false positive rate across sensitive groups and propose a conceptually simple
method to mitigate this bias. We rigorously analyze the proposed method and
evaluate it on several real world datasets demonstrating its efficacy.
- Abstract(参考訳): 機械学習は、医療、金融、エネルギーといったほぼすべての取り組みや領域において、私たちの日常生活に積極的に影響を与えます。
機械学習への依存が高まるにつれて、これらのアルゴリズムが個人選択から世界規模の政策に至るまで、社会に直接的な影響を与える決定を下すために使われることは避けられません。
したがって、意図しないバイアスが機械学習アルゴリズムに影響を与えないことを保証することは、特に意図しない結果をもたらす可能性のある決定をしなければならない場合に重要である。
アルゴリズムの公平性は機械学習コミュニティに牽引され、アルゴリズムとデータ収集における公平性を確保し評価する多くの方法やメトリクスが提案されている。
本稿では,教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このような分類器はセンシティブなグループ間で偽陽性率が増加することを実証し、このバイアスを緩和するための概念的に単純な方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
関連論文リスト
- Relevance-aware Algorithmic Recourse [3.6141428739228894]
アルゴリズムのリコースは、予測モデルによる決定を明確にするためのツールとして現れます。
現在のアルゴリズム的リコース法では、すべてのドメイン値が等しく扱われるが、現実の環境では非現実的である。
本稿では、回帰タスクにアルゴリズム・リコースを適用する際に、関連性の概念を活用する新しいフレームワーク、Relevance-Aware Algorithmic Recourse (RAAR)を提案する。
論文 参考訳(メタデータ) (2024-05-29T13:25:49Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments [8.62694928567939]
本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
論文 参考訳(メタデータ) (2023-09-04T19:45:18Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - How fair can we go in machine learning? Assessing the boundaries of
fairness in decision trees [0.12891210250935145]
本稿では,バイアス緩和介入の統計的限界を探索するための最初の方法論を提案する。
機械学習において広く受け入れられている決定木分類器に焦点をあてる。
本手法は, 分類誤差の少ない精度で, 決定木モデルの最適化が可能であることを実験的に結論付けた。
論文 参考訳(メタデータ) (2020-06-22T16:28:26Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。