論文の概要: Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting
- arxiv url: http://arxiv.org/abs/2302.08204v1
- Date: Thu, 16 Feb 2023 10:36:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 14:17:33.022553
- Title: Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting
- Title(参考訳): 未認識環境下での公正なバイアス評価と検出のためのファクトファクト推論
- Authors: Giandomenico Cornacchia, Vito Walter Anelli, Fedelucio Narducci,
Azzurra Ragone, Eugenio Di Sciascio
- Abstract要約: 現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスで機密機能を破棄する必要がある。
本稿では、機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
- 参考スコア(独自算出の注目度): 5.626570248105078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current AI regulations require discarding sensitive features (e.g., gender,
race, religion) in the algorithm's decision-making process to prevent unfair
outcomes. However, even without sensitive features in the training set,
algorithms can persist in discrimination. Indeed, when sensitive features are
omitted (fairness under unawareness), they could be inferred through non-linear
relations with the so called proxy features. In this work, we propose a way to
reveal the potential hidden bias of a machine learning model that can persist
even when sensitive features are discarded. This study shows that it is
possible to unveil whether the black-box predictor is still biased by
exploiting counterfactual reasoning. In detail, when the predictor provides a
negative classification outcome, our approach first builds counterfactual
examples for a discriminated user category to obtain a positive outcome. Then,
the same counterfactual samples feed an external classifier (that targets a
sensitive feature) that reveals whether the modifications to the user
characteristics needed for a positive outcome moved the individual to the
non-discriminated group. When this occurs, it could be a warning sign for
discriminatory behavior in the decision process. Furthermore, we leverage the
deviation of counterfactuals from the original sample to determine which
features are proxies of specific sensitive information. Our experiments show
that, even if the model is trained without sensitive features, it often suffers
discriminatory biases.
- Abstract(参考訳): 現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスにセンシティブな特徴(性別、人種、宗教など)を破棄する必要がある。
しかし、トレーニングセットにセンシティブな特徴がなくても、アルゴリズムは識別を継続することができる。
実際、センシティブな機能が省略された場合(無意識下でのフェアネス)、それらはいわゆるプロキシ機能との非線形関係によって推測される。
本研究では,機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
本研究は,ブラックボックス予測器が非現実的推論によってまだ偏りがあるかどうかを明らかにすることができることを示す。
より詳しくは、予測器が負の分類結果を提供する場合、まず、識別されたユーザカテゴリの反実例を作成し、正の結果を得る。
そして、同じ偽物サンプルが外部の分類器(センシティブな特徴を対象とする)を供給し、ポジティブな結果に必要なユーザ特性の変更が個人を非差別グループへ移動させたかどうかを明らかにする。
これが起こると、決定プロセスにおける差別行動の警告サインになる可能性がある。
さらに,特定機密情報のプロキシである特徴を決定するために,原サンプルからの反事実の偏差を利用する。
我々の実験は、たとえモデルが繊細な特徴を伴わずに訓練されたとしても、しばしば差別バイアスを被ることを示した。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - A fuzzy-rough uncertainty measure to discover bias encoded explicitly or
implicitly in features of structured pattern classification datasets [0.0]
保護属性と非保護属性の相関によって定義された非保護特徴に暗黙的に符号化されたバイアスの存在について検討した。
境界領域の変化を最も捉えるファジィ演算子と距離関数を決定するために感度解析を行う。
論文 参考訳(メタデータ) (2021-08-20T10:27:32Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。