論文の概要: Marrying Fairness and Explainability in Supervised Learning
- arxiv url: http://arxiv.org/abs/2204.02947v1
- Date: Wed, 6 Apr 2022 17:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:30:56.470134
- Title: Marrying Fairness and Explainability in Supervised Learning
- Title(参考訳): 教師付き学習における公平性と説明可能性の結婚
- Authors: Przemyslaw Grabowicz, Nicholas Perello, Aarshee Mishra
- Abstract要約: 我々は、保護属性の直接的な因果効果として直接識別を定式化する。
我々は、最先端のフェアラーニング手法は、関連性や逆の差別によって差別を誘発することができることを発見した。
本稿では,保護された属性がシステムの出力に与える影響を無効にするとともに,残りの特徴の影響を保存することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms that aid human decision-making may inadvertently
discriminate against certain protected groups. We formalize direct
discrimination as a direct causal effect of the protected attributes on the
decisions, while induced discrimination as a change in the causal influence of
non-protected features associated with the protected attributes. The
measurements of marginal direct effect (MDE) and SHapley Additive exPlanations
(SHAP) reveal that state-of-the-art fair learning methods can induce
discrimination via association or reverse discrimination in synthetic and
real-world datasets. To inhibit discrimination in algorithmic systems, we
propose to nullify the influence of the protected attribute on the output of
the system, while preserving the influence of remaining features. We introduce
and study post-processing methods achieving such objectives, finding that they
yield relatively high model accuracy, prevent direct discrimination, and
diminishes various disparity measures, e.g., demographic disparity.
- Abstract(参考訳): 人間の意思決定を支援する機械学習アルゴリズムは、特定の保護されたグループに対して不注意に判別することができる。
我々は,保護属性の直接的因果効果として直接的差別を定式化し,保護属性に関連する非保護的特徴の因果影響の変化として誘導的差別を導出する。
限界直接効果(MDE)とSHAP(SHapley Additive ExPlanations)の測定により、最先端のフェアラーニング手法は、合成および実世界のデータセットにおける関連性や逆の識別を通じて、識別を誘導できることが明らかになった。
アルゴリズムシステムにおける識別を抑制するため,残りの特徴を保ちながら,保護属性がシステム出力に与える影響を無効にすることを提案する。
このような目的を達成する事後処理法を紹介・検討し, モデル精度が比較的高いこと, 直接的差別を防止し, 人口格差などの様々な格差対策を減少させることを見出した。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Unlawful Proxy Discrimination: A Framework for Challenging Inherently Discriminatory Algorithms [4.1221687771754]
EUの直接差別という法的概念は、様々なアルゴリズムによる意思決定の文脈に適用できる。
間接的差別とは異なり、直接的差別の枠組みには「客観的正当化」段階は存在しない。
アルゴリズムの文脈における直接差別の最も可能性の高い候補に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T10:06:17Z) - Thinking Outside the Box: Orthogonal Approach to Equalizing Protected
Attributes [6.852292115526837]
ブラックボックスAIは、臨床意思決定における健康に関する格差とバイアスを悪化させる可能性がある。
本研究は、共同創設者の効果を分析し、抑制することを目的とした機械学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-21T13:48:56Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Aleatoric and Epistemic Discrimination: Fundamental Limits of Fairness Interventions [13.279926364884512]
機械学習モデルは、モデル開発時の選択とデータ固有のバイアスにより、特定の人口群で過小評価される可能性がある。
フェアネス制約下でのモデルの性能限界を決定することにより,アレータリック判別の定量化を行う。
本研究では, 公平性制約を適用した際のモデルの精度と, アレタリック判別による限界とのギャップとして, てんかんの判別を定量化する。
論文 参考訳(メタデータ) (2023-01-27T15:38:20Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z) - Learning from Discriminatory Training Data [2.1869017389979266]
監視された学習システムは、歴史的データを用いて訓練され、もしデータが差別によって汚染された場合、保護されたグループに対して差別を意図せずに学習する可能性がある。
差別的データセットの訓練にもかかわらず、公正な学習手法は、公正なテストデータセットで良好に機能することを提案する。
論文 参考訳(メタデータ) (2019-12-17T18:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。