論文の概要: Quantifying Feature Contributions to Overall Disparity Using Information
Theory
- arxiv url: http://arxiv.org/abs/2206.08454v1
- Date: Thu, 16 Jun 2022 21:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 13:03:50.321172
- Title: Quantifying Feature Contributions to Overall Disparity Using Information
Theory
- Title(参考訳): 情報理論を用いた全体格差に対する特徴量化
- Authors: Sanghamitra Dutta, Praveen Venkatesh, Pulkit Grover
- Abstract要約: 機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
正確な意思決定メカニズムがアクセスできない場合、各特徴の観察された相違点に対する「潜在的」貢献はどのようなものか?
入力に介入できない場合、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」統計的依存を定量化する。
- 参考スコア(独自算出の注目度): 24.61791450920249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a machine-learning algorithm makes biased decisions, it can be helpful
to understand the sources of disparity to explain why the bias exists. Towards
this, we examine the problem of quantifying the contribution of each individual
feature to the observed disparity. If we have access to the decision-making
model, one potential approach (inspired from intervention-based approaches in
explainability literature) is to vary each individual feature (while keeping
the others fixed) and use the resulting change in disparity to quantify its
contribution. However, we may not have access to the model or be able to
test/audit its outputs for individually varying features. Furthermore, the
decision may not always be a deterministic function of the input features
(e.g., with human-in-the-loop). For these situations, we might need to explain
contributions using purely distributional (i.e., observational) techniques,
rather than interventional. We ask the question: what is the "potential"
contribution of each individual feature to the observed disparity in the
decisions when the exact decision-making mechanism is not accessible? We first
provide canonical examples (thought experiments) that help illustrate the
difference between distributional and interventional approaches to explaining
contributions, and when either is better suited. When unable to intervene on
the inputs, we quantify the "redundant" statistical dependency about the
protected attribute that is present in both the final decision and an
individual feature, by leveraging a body of work in information theory called
Partial Information Decomposition. We also perform a simple case study to show
how this technique could be applied to quantify contributions.
- Abstract(参考訳): 機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
そこで本研究では,各特徴の寄与度を定量的に定量化する問題について検討する。
意思決定モデルにアクセスできれば、(説明可能性文学における介入に基づくアプローチから着想を得た)1つの潜在的なアプローチは、個々の特徴を(他の特徴を固定しながら)変更し、結果として生じる不平等の変化を利用して貢献を定量化することです。
しかし、モデルにアクセスできない場合や、個々の異なる機能に対してその出力をテスト/監査できる場合があります。
さらに、この決定は常に入力機能の決定論的機能であるとは限らない(例えば、Human-in-the-loop)。
このような状況下では、介入よりも純粋に分布的(観察的)技術を用いて貢献を説明する必要があるかもしれない。
正確な意思決定メカニズムがアクセスできない場合、個々の特徴の"潜在的"な貢献は、決定における観察された不一致に何をもたらすのか?
まず、貢献を説明するための分布的アプローチと介入的アプローチの違いを説明するのに役立つ標準的な例(思考実験)を提示します。
入力に介入できない場合は、部分的情報分解と呼ばれる情報理論における作業体を活用することにより、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」な統計依存性を定量化する。
コントリビューションの定量化にこの手法をどのように適用できるかを示すための簡単なケーススタディも実施する。
関連論文リスト
- Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - Causal Entropy and Information Gain for Measuring Causal Control [0.22252684361733285]
本稿では,因果的エントロピーと相互情報の因果的バージョンを,因果的エントロピーと因果的情報ゲインと呼ぶ形で導入する。
これらの量は他の変数への介入によって生じる変数のエントロピーの変化を捉えている。
これらの量と因果効果の存在を結びつける基礎的な結果が導出された。
論文 参考訳(メタデータ) (2023-09-14T13:25:42Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Order in the Court: Explainable AI Methods Prone to Disagreement [0.0]
自然言語処理では、各入力トークンの独立的なコントリビューションをモデルの決定に向けて定量化する。
これまでの分析では、注意に基づく説明を忠実で妥当な救済の尺度として無効にするか、支持するかのどちらかを模索してきた。
ランク相関は概ね非形式的であり,特徴付加的手法の品質を計測しないことを示す。
論文 参考訳(メタデータ) (2021-05-07T14:27:37Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。