論文の概要: LUCID-GAN: Conditional Generative Models to Locate Unfairness
- arxiv url: http://arxiv.org/abs/2307.15466v1
- Date: Fri, 28 Jul 2023 10:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 12:53:39.083391
- Title: LUCID-GAN: Conditional Generative Models to Locate Unfairness
- Title(参考訳): LUCID-GAN:不公平を判断するための条件付き生成モデル
- Authors: Andres Algaba, Carmen Mazijn, Carina Prunkl, Jan Danckaert, Vincent
Ginis
- Abstract要約: 本稿では,勾配に基づく逆設計の代わりに条件付き生成モデルを用いて標準入力を生成するLUCID-GANを提案する。
UCIアダルトデータセットとCompASデータセットのLUCID-GANを実験的に評価し、トレーニングデータへのアクセスを必要とせず、ブラックボックスモデルにおける非倫理的バイアスを検出することができることを示す。
- 参考スコア(独自算出の注目度): 1.5257247496416746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most group fairness notions detect unethical biases by computing statistical
parity metrics on a model's output. However, this approach suffers from several
shortcomings, such as philosophical disagreement, mutual incompatibility, and
lack of interpretability. These shortcomings have spurred the research on
complementary bias detection methods that offer additional transparency into
the sources of discrimination and are agnostic towards an a priori decision on
the definition of fairness and choice of protected features. A recent proposal
in this direction is LUCID (Locating Unfairness through Canonical Inverse
Design), where canonical sets are generated by performing gradient descent on
the input space, revealing a model's desired input given a preferred output.
This information about the model's mechanisms, i.e., which feature values are
essential to obtain specific outputs, allows exposing potential unethical
biases in its internal logic. Here, we present LUCID-GAN, which generates
canonical inputs via a conditional generative model instead of gradient-based
inverse design. LUCID-GAN has several benefits, including that it applies to
non-differentiable models, ensures that canonical sets consist of realistic
inputs, and allows to assess proxy and intersectional discrimination. We
empirically evaluate LUCID-GAN on the UCI Adult and COMPAS data sets and show
that it allows for detecting unethical biases in black-box models without
requiring access to the training data.
- Abstract(参考訳): ほとんどの集団フェアネス概念は、モデルの出力に対する統計パリティ指標を計算して非倫理バイアスを検出する。
しかし、このアプローチには哲学的な不一致、相互の非互換性、解釈可能性の欠如などいくつかの欠点がある。
これらの欠点は、差別の源泉にさらなる透明性を提供する補完的バイアス検出方法の研究を刺激し、公正性の定義と保護された特徴の選択に関する事前決定に無知である。
この方向の最近の提案はlucid(正準逆設計による不公平さの特定)であり、入力空間上で勾配降下を行い、望ましい出力が与えられたモデルの所望の入力を明らかにすることで正準集合が生成される。
このモデル機構、すなわち特定の出力を得るために特徴値が不可欠であるこの情報は、内部論理における潜在的な非倫理的バイアスを露呈する。
本稿では,勾配に基づく逆設計の代わりに条件付き生成モデルを用いて標準入力を生成するLUCID-GANを提案する。
LUCID-GANは、非微分可能モデルに適用し、標準集合が現実的な入力から成り立つことを保証し、プロキシと交叉識別を評価することができるなど、いくつかの利点がある。
UCIアダルトデータセットとCompASデータセット上でLUCID-GANを実験的に評価し、トレーニングデータにアクセスすることなくブラックボックスモデルにおける非倫理的バイアスを検出することができることを示す。
関連論文リスト
- Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Hierarchical Bias-Driven Stratification for Interpretable Causal Effect
Estimation [1.6874375111244329]
BICauseTreeは、自然実験が局所的に発生するクラスタを識別する解釈可能なバランシング手法である。
合成および現実的なデータセットを用いて手法の性能を評価し、バイアス-解釈可能性トレードオフを探索し、既存の手法に匹敵することを示す。
論文 参考訳(メタデータ) (2024-01-31T10:58:13Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - LUCID: Exposing Algorithmic Bias through Inverse Design [1.5257247496416746]
アウトプット指標は本質的な障害に遭遇し,治療の平等に焦点を合わせる補完的アプローチを提案する。
所望の出力が与えられたモデルに対して所望の入力を示す正準集合を生成する。
UCIアダルトデータセットとCompASデータセット上でLUCIDを評価し,標準セットで検出されたバイアスが出力指標と異なることを発見した。
論文 参考訳(メタデータ) (2022-08-26T17:06:35Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。