論文の概要: OmniFair: A Declarative System for Model-Agnostic Group Fairness in
Machine Learning
- arxiv url: http://arxiv.org/abs/2103.09055v1
- Date: Sat, 13 Mar 2021 02:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 05:40:50.694252
- Title: OmniFair: A Declarative System for Model-Agnostic Group Fairness in
Machine Learning
- Title(参考訳): OmniFair: 機械学習におけるモデル非依存グループフェアネスの宣言システム
- Authors: Hantian Zhang, Xu Chu, Abolfazl Asudeh, Shamkant B. Navathe
- Abstract要約: 機械学習(ML)におけるグループ公平性を支援する宣言型OmniFairを提案する。
OmniFairは、ユーザが望ましいグループフェアネス制約を指定するための宣言インターフェイスを備えている。
OmniFairは、サポート対象の公平性制約と下流のMLモデルの両方の観点から、既存のアルゴリズム公平性アプローチよりも汎用性が高いことを示しています。
- 参考スコア(独自算出の注目度): 11.762484210143773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is increasingly being used to make decisions in our
society. ML models, however, can be unfair to certain demographic groups (e.g.,
African Americans or females) according to various fairness metrics. Existing
techniques for producing fair ML models either are limited to the type of
fairness constraints they can handle (e.g., preprocessing) or require
nontrivial modifications to downstream ML training algorithms (e.g.,
in-processing).
We propose a declarative system OmniFair for supporting group fairness in ML.
OmniFair features a declarative interface for users to specify desired group
fairness constraints and supports all commonly used group fairness notions,
including statistical parity, equalized odds, and predictive parity. OmniFair
is also model-agnostic in the sense that it does not require modifications to a
chosen ML algorithm. OmniFair also supports enforcing multiple user declared
fairness constraints simultaneously while most previous techniques cannot. The
algorithms in OmniFair maximize model accuracy while meeting the specified
fairness constraints, and their efficiency is optimized based on the
theoretically provable monotonicity property regarding the trade-off between
accuracy and fairness that is unique to our system.
We conduct experiments on commonly used datasets that exhibit bias against
minority groups in the fairness literature. We show that OmniFair is more
versatile than existing algorithmic fairness approaches in terms of both
supported fairness constraints and downstream ML models. OmniFair reduces the
accuracy loss by up to $94.8\%$ compared with the second best method. OmniFair
also achieves similar running time to preprocessing methods, and is up to
$270\times$ faster than in-processing methods.
- Abstract(参考訳): 機械学習(ML)は、私たちの社会における意思決定にますます使われています。
しかし、MLモデルは、様々な公正度指標に従って特定の人口集団(アフリカ系アメリカ人や女性など)に対して不公平である可能性がある。
フェアなMLモデルを生成する既存の技術は、処理可能なフェアネス制約の種類(例えば前処理)に制限されるか、下流のMLトレーニングアルゴリズム(例えば、内処理)に非自明な修正を必要とする。
MLにおけるグループフェアネスを支援するための宣言型システムOmniFairを提案する。
omnifairは、ユーザが希望するグループフェアネス制約を指定できる宣言型インターフェースを備えており、統計パリティ、等化オッズ、予測パリティを含む、一般的に使用されるすべてのグループフェアネス概念をサポートしている。
OmniFairは、選択したMLアルゴリズムの変更を必要としないという意味でも、モデルに依存しない。
OmniFairは複数のユーザが宣言した公正性制約を同時に実施する機能もサポートしている。
OmniFairのアルゴリズムは、指定された公正性制約を満たしながらモデル精度を最大化し、その効率は、我々のシステムに特有の正確性と公正性のトレードオフに関する理論的に証明可能な単調性特性に基づいて最適化される。
フェアネス文学における少数派に対する偏見を示すために、よく使われるデータセットの実験を行う。
我々は、OmniFairが既存のアルゴリズムフェアネスアプローチよりも、サポートされたフェアネス制約と下流MLモデルの両方の観点から、より汎用的であることを示す。
OmniFairは、第2のベストメソッドと比較して、9,4.8\%の精度損失を減らす。
OmniFairは、プリプロセッシングメソッドと同じような実行時間を実現しており、インプロセッシングメソッドよりも最大270\times$高速である。
関連論文リスト
- Fairness And Performance In Harmony: Data Debiasing Is All You Need [5.969005147375361]
本研究では,870のプロファイルを持つ実世界の大学入試データセットを用いて,公正さについて検討する。
個人的公正性については,さまざまな背景を持つ専門家とMLモデルによる意思決定の整合性を評価する。
その結果、MLモデルは人間を14.08%から18.79%上回った。
論文 参考訳(メタデータ) (2024-11-26T12:31:10Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。