論文の概要: FairML: A Julia Package for Fair Classification
- arxiv url: http://arxiv.org/abs/2412.01585v2
- Date: Tue, 03 Dec 2024 08:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:31.496264
- Title: FairML: A Julia Package for Fair Classification
- Title(参考訳): FairML: 公平な分類のためのJuliaパッケージ
- Authors: Jan Pablo Burgard, João Vitor Pamplona,
- Abstract要約: 機械学習における公平な分類のためのフレームワークを提供するJuliaパッケージであるFairML.jlを提案する。
公正な学習プロセスは、前処理、内処理、後処理の3つの段階に分けられる。
シミュレーションでは, 単一位相とその組み合わせの性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we propose FairML.jl, a Julia package providing a framework for fair classification in machine learning. In this framework, the fair learning process is divided into three stages. Each stage aims to reduce unfairness, such as disparate impact and disparate mistreatment, in the final prediction. For the preprocessing stage, we present a resampling method that addresses unfairness coming from data imbalances. The in-processing phase consist of a classification method. This can be either one coming from the MLJ.jl package, or a user defined one. For this phase, we incorporate fair ML methods that can handle unfairness to a certain degree through their optimization process. In the post-processing, we discuss the choice of the cut-off value for fair prediction. With simulations, we show the performance of the single phases and their combinations.
- Abstract(参考訳): 本稿では,機械学習における公平な分類のためのフレームワークを提供するJuliaパッケージであるFairML.jlを提案する。
この枠組みでは、公正学習プロセスは3つの段階に分けられる。
各段階は、最終予測において、異なる影響や異なる不当な扱いなどの不公平さを減らすことを目的としている。
事前処理の段階では,データ不均衡から生じる不公平に対処する再サンプリング手法を提案する。
インプロセッシングフェーズは、分類方法からなる。
これはMLJ.jlパッケージから来るものか、あるいはユーザが定義したもののいずれかである。
このフェーズでは、最適化プロセスを通じて不公平をある程度処理できる公平なML手法が組み込まれている。
後処理では、公正な予測のためのカットオフ値の選択について論じる。
シミュレーションでは, 単一位相とその組み合わせの性能を示す。
関連論文リスト
- Lookahead Counterfactual Fairness [13.803918985391451]
機械学習アルゴリズムが特定の社会グループに偏っているのではないかという懸念が持ち上がっている。
本稿では,MLモデルの下流効果を考慮に入れたテキスト・ビュー・カウンティファクト(LCF)を提案する。
論文 参考訳(メタデータ) (2024-12-02T02:53:14Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Post-processing for Individual Fairness [23.570995756189266]
アルゴリズムフェアネスにおける後処理は、すでに実運用で使用されているMLシステムのバイアスを修正するための汎用的なアプローチである。
学習者が元のモデルの予測と個人間の類似性グラフにのみアクセスでき、所望の公正性制約を導出できるような設定を考える。
提案アルゴリズムは,BERTなどの大規模NLPモデルにおいて,精度を保ちながら個々のバイアスを補正する。
論文 参考訳(メタデータ) (2021-10-26T15:51:48Z) - Fair Preprocessing: Towards Understanding Compositional Fairness of Data
Transformers in Machine Learning Pipeline [9.066484448478551]
機械学習モデルにおける不公平性を計測し緩和する研究が実施されている。
データ前処理段階での特定の変換による不公平さを計測する研究は行われていない。
論文 参考訳(メタデータ) (2021-06-02T20:39:52Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。