論文の概要: Measuring Implicit Bias Using SHAP Feature Importance and Fuzzy
Cognitive Maps
- arxiv url: http://arxiv.org/abs/2305.09399v2
- Date: Wed, 17 May 2023 07:30:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 11:32:54.386960
- Title: Measuring Implicit Bias Using SHAP Feature Importance and Fuzzy
Cognitive Maps
- Title(参考訳): SHAP特徴重要度とファジィ認知地図を用いたインシシットバイアスの測定
- Authors: Isel Grau, Gonzalo N\'apoles, Fabian Hoitsma, Lisa Koutsoviti Koumeri,
Koen Vanhoof
- Abstract要約: 本稿では,特徴重要度の概念と暗黙バイアスをパターン分類の文脈で統合する。
保護された特徴に対するバイアスの量は、その特徴が数値的にか分類的に符号化されているかによって異なるかもしれない。
- 参考スコア(独自算出の注目度): 1.9739269019020032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we integrate the concepts of feature importance with implicit
bias in the context of pattern classification. This is done by means of a
three-step methodology that involves (i) building a classifier and tuning its
hyperparameters, (ii) building a Fuzzy Cognitive Map model able to quantify
implicit bias, and (iii) using the SHAP feature importance to active the neural
concepts when performing simulations. The results using a real case study
concerning fairness research support our two-fold hypothesis. On the one hand,
it is illustrated the risks of using a feature importance method as an absolute
tool to measure implicit bias. On the other hand, it is concluded that the
amount of bias towards protected features might differ depending on whether the
features are numerically or categorically encoded.
- Abstract(参考訳): 本稿では,特徴の重要度の概念と暗黙のバイアスをパターン分類の文脈で統合する。
これは3段階の方法論によって行われます。
(i)分類器を構築し、そのハイパーパラメータをチューニングすること。
(ii)暗黙のバイアスを定量化できるファジィ認知地図モデルの構築、
3)SHAPの特徴は,シミュレーションを行う際の神経概念の活性化に重要である。
公平性研究に関する実例研究を用いた結果は、我々の2つの仮説を支持する。
また, 特徴重要度法を絶対的ツールとして使用することで, 暗黙的バイアスを計測するリスクを示す。
一方,保護された特徴に対する偏見の量は,その特徴が数値的か分類的に符号化されているかによって異なる可能性がある。
関連論文リスト
- A Review of Bayesian Uncertainty Quantification in Deep Probabilistic Image Segmentation [0.0]
画像セグメンテーションの進歩は、ディープラーニングベースのコンピュータビジョンの広い範囲において重要な役割を果たす。
この文脈において不確かさの定量化が広く研究され、モデル無知(認識の不確実性)やデータ曖昧さ(アラート的不確実性)を表現し、不正な意思決定を防ぐことができる。
この研究は、分野の進歩を左右する不確実性の基本概念と様々なタスクへの応用について議論することで、確率的セグメンテーションの包括的概要を提供する。
論文 参考訳(メタデータ) (2024-11-25T13:26:09Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - FACT: High-Dimensional Random Forests Inference [4.941630596191806]
ランダム森林学習における個々の特徴の有用性の定量化は、その解釈可能性を大幅に向上させる。
既存の研究では、ランダム森林の特徴的重要度尺度が偏見の問題に悩まされていることが示されている。
本研究では, 自己正規化特徴-残留相関テスト(FACT)の枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-04T19:05:08Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Path Integrals for the Attribution of Model Uncertainties [0.18899300124593643]
本稿では,特徴ベクトルと反事実ベクトルを連結する分布内曲線に依存する新しいアルゴリズムを提案する。
我々は,様々な解像度で画像データセットをベンチマークし,解釈可能性を大幅に単純化することを示す。
論文 参考訳(メタデータ) (2021-07-19T11:07:34Z) - Do Input Gradients Highlight Discriminative Features? [42.47346844105727]
解釈可能性メソッドはインスタンス固有のモデル予測を説明する。
ベンチマーク画像分類タスクのためのこの仮説を研究するための評価フレームワークを紹介します。
CIFAR-10とImagenet-10データセットの2つの驚くべき観測を行った。
論文 参考訳(メタデータ) (2021-02-25T11:04:38Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。