論文の概要: LUCID: Exposing Algorithmic Bias through Inverse Design
- arxiv url: http://arxiv.org/abs/2208.12786v1
- Date: Fri, 26 Aug 2022 17:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:35:58.657178
- Title: LUCID: Exposing Algorithmic Bias through Inverse Design
- Title(参考訳): LUCID:逆設計によるアルゴリズムバイアスの抽出
- Authors: Carmen Mazijn, Carina Prunkl, Andres Algaba, Jan Danckaert, Vincent
Ginis
- Abstract要約: アウトプット指標は本質的な障害に遭遇し,治療の平等に焦点を合わせる補完的アプローチを提案する。
所望の出力が与えられたモデルに対して所望の入力を示す正準集合を生成する。
UCIアダルトデータセットとCompASデータセット上でLUCIDを評価し,標準セットで検出されたバイアスが出力指標と異なることを発見した。
- 参考スコア(独自算出の注目度): 1.5257247496416746
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI systems can create, propagate, support, and automate bias in
decision-making processes. To mitigate biased decisions, we both need to
understand the origin of the bias and define what it means for an algorithm to
make fair decisions. Most group fairness notions assess a model's equality of
outcome by computing statistical metrics on the outputs. We argue that these
output metrics encounter intrinsic obstacles and present a complementary
approach that aligns with the increasing focus on equality of treatment. By
Locating Unfairness through Canonical Inverse Design (LUCID), we generate a
canonical set that shows the desired inputs for a model given a preferred
output. The canonical set reveals the model's internal logic and exposes
potential unethical biases by repeatedly interrogating the decision-making
process. We evaluate LUCID on the UCI Adult and COMPAS data sets and find that
some biases detected by a canonical set differ from those of output metrics.
The results show that by shifting the focus towards equality of treatment and
looking into the algorithm's internal workings, the canonical sets are a
valuable addition to the toolbox of algorithmic fairness evaluation.
- Abstract(参考訳): AIシステムは意思決定プロセスのバイアスを作成し、伝播し、サポートし、自動化することができる。
バイアスのある決定を緩和するためには、偏見の起源を理解し、公正な決定を行うアルゴリズムの意味を定義する必要があります。
ほとんどの群フェアネスの概念は、出力の統計メトリクスを計算することによって、モデルの結果の平等を評価する。
これらのアウトプット指標は本質的な障害に遭遇し,治療の平等に焦点を合わせた補完的アプローチを提案する。
標準逆設計(LUCID)による不公平な位置決めにより、好ましい出力を与えられたモデルに対して所望の入力を示す正準集合を生成する。
標準セットはモデルの内部論理を明らかにし、意思決定プロセスを繰り返し尋問することで潜在的な非倫理バイアスを露呈する。
UCIアダルトデータセットとCompASデータセット上でLUCIDを評価し,標準セットで検出されたバイアスが出力指標と異なることを発見した。
その結果, 治療の平等に焦点を移し, アルゴリズムの内部動作を考察することで, 正準集合はアルゴリズム的公平性評価のツールボックスに価値ある付加物であることがわかった。
関連論文リスト
- Differentially Private Post-Processing for Fair Regression [13.855474876965557]
我々のアルゴリズムは任意の回帰器を後処理し、出力を再マッピングすることで公平性を向上させることができる。
我々は,本アルゴリズムのサンプル複雑性を分析し,ヒストグラム中のビン数の選択から得られる統計的バイアスと分散とのトレードオフを明らかにする。
論文 参考訳(メタデータ) (2024-05-07T06:09:37Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - LUCID-GAN: Conditional Generative Models to Locate Unfairness [1.5257247496416746]
本稿では,勾配に基づく逆設計の代わりに条件付き生成モデルを用いて標準入力を生成するLUCID-GANを提案する。
UCIアダルトデータセットとCompASデータセットのLUCID-GANを実験的に評価し、トレーニングデータへのアクセスを必要とせず、ブラックボックスモデルにおける非倫理的バイアスを検出することができることを示す。
論文 参考訳(メタデータ) (2023-07-28T10:37:49Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。