論文の概要: Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features
- arxiv url: http://arxiv.org/abs/2202.11499v1
- Date: Wed, 23 Feb 2022 13:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 14:26:33.512816
- Title: Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features
- Title(参考訳): 複数の感性特徴を持つデータに対するフェアネス対応ニーブベイズ分類器
- Authors: Stelios Boulitsakis-Logothetis
- Abstract要約: 2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning seeks to maximise utility in generating
predictions while avoiding unfair discrimination based on sensitive attributes
such as race, sex, religion, etc. An important line of work in this field is
enforcing fairness during the training step of a classifier. A simple yet
effective binary classification algorithm that follows this strategy is
two-naive-Bayes (2NB), which enforces statistical parity - requiring that the
groups comprising the dataset receive positive labels with the same likelihood.
In this paper, we generalise this algorithm into N-naive-Bayes (NNB) to
eliminate the simplification of assuming only two sensitive groups in the data
and instead apply it to an arbitrary number of groups.
We propose an extension of the original algorithm's statistical parity
constraint and the post-processing routine that enforces statistical
independence of the label and the single sensitive attribute. Then, we
investigate its application on data with multiple sensitive features and
propose a new constraint and post-processing routine to enforce differential
fairness, an extension of established group-fairness constraints focused on
intersectionalities. We empirically demonstrate the effectiveness of the NNB
algorithm on US Census datasets and compare its accuracy and debiasing
performance, as measured by disparate impact and DF-$\epsilon$ score, with
similar group-fairness algorithms. Finally, we lay out important considerations
users should be aware of before incorporating this algorithm into their
application, and direct them to further reading on the pros, cons, and ethical
implications of using statistical parity as a fairness criterion.
- Abstract(参考訳): フェアネスアウェア機械学習は、人種、性別、宗教などの繊細な属性に基づく不公平な差別を避けながら、予測を生成するユーティリティを最大化することを目指している。
この分野における重要な仕事の行は、分類器の訓練段階における公平さを強制することである。
この戦略に従う単純な効果的な二項分類アルゴリズムは2-naive-Bayes (2NB) であり、これは統計パリティを強制するものであり、データセットを構成するグループは同じ確率で正のラベルを受け取る必要がある。
本稿では,このアルゴリズムをN-naive-Bayes (NNB) に一般化し,データ中の2つのセンシティブなグループのみを仮定する単純化を解消し,任意の数のグループに適用する。
本稿では,元アルゴリズムの統計的パリティ制約の拡張と,ラベルと単一感度属性の統計的独立性を強制する後処理ルーチンを提案する。
次に,複数の感度特徴を持つデータへの適用について検討し,交差性に着目したグループフェアネス制約の拡張である差分フェアネスを強制するための新しい制約および後処理ルーチンを提案する。
我々は、米国国勢調査データセットにおけるNNBアルゴリズムの有効性を実証的に実証し、その精度と劣化性能を、異なるインパクトとDF-$\epsilon$スコアで測定し、同様のグループフェアネスアルゴリズムと比較した。
最後に,このアルゴリズムをアプリケーションに組み込む前に,ユーザが認識すべき重要な考慮事項を整理し,統計的パリティを公平性基準として用いることのメリット,欠点,倫理的意味について,さらに読むように指示する。
関連論文リスト
- Post-processing fairness with minimal changes [5.927938174149359]
本稿では,モデルに依存しない新しいポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは偏りのある予測と偏りのある予測の間の最小限の変化を強制するように設計されている。
論文 参考訳(メタデータ) (2024-08-27T14:26:56Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Differentially Private Fair Binary Classifications [1.8087157239832476]
まず,公平性保証のみで分類器を学習するアルゴリズムを提案する。
次に、このアルゴリズムを改良して、差分プライバシーを取り入れます。
アダルトカードとクレディカードのデータセットで行った実証的な評価は、我々のアルゴリズムが公正性の保証の観点から最先端のアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-02-23T20:52:59Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。