論文の概要: Interpretable Data-Based Explanations for Fairness Debugging
- arxiv url: http://arxiv.org/abs/2112.09745v1
- Date: Fri, 17 Dec 2021 20:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 07:45:48.842804
- Title: Interpretable Data-Based Explanations for Fairness Debugging
- Title(参考訳): 公正デバッグのための解釈可能なデータベース説明
- Authors: Romila Pradhan, Jiongli Zhu, Boris Glavic, Babak Salimi
- Abstract要約: Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
- 参考スコア(独自算出の注目度): 7.266116143672294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A wide variety of fairness metrics and eXplainable Artificial Intelligence
(XAI) approaches have been proposed in the literature to identify bias in
machine learning models that are used in critical real-life contexts. However,
merely reporting on a model's bias, or generating explanations using existing
XAI techniques is insufficient to locate and eventually mitigate sources of
bias. In this work, we introduce Gopher, a system that produces compact,
interpretable, and causal explanations for bias or unexpected model behavior by
identifying coherent subsets of the training data that are root-causes for this
behavior. Specifically, we introduce the concept of causal responsibility that
quantifies the extent to which intervening on training data by removing or
updating subsets of it can resolve the bias. Building on this concept, we
develop an efficient approach for generating the top-k patterns that explain
model bias that utilizes techniques from the ML community to approximate causal
responsibility and uses pruning rules to manage the large search space for
patterns. Our experimental evaluation demonstrates the effectiveness of Gopher
in generating interpretable explanations for identifying and debugging sources
of bias.
- Abstract(参考訳): さまざまなフェアネスメトリクスとeXplainable Artificial Intelligence (XAI)アプローチが文献で提案され、重要な実生活で使用される機械学習モデルのバイアスを特定することが提案されている。
しかし、単にモデルのバイアスを報告したり、既存のXAI技術を使って説明を生成するだけでは、バイアスの源を見つけるのに不十分です。
本稿では,この行動の根本原因となるトレーニングデータのコヒーレントなサブセットを同定することにより,バイアスや予期せぬモデル行動のコンパクトで解釈可能な因果的説明を生成するシステムであるGopherを紹介する。
具体的には,データセットのサブセットを取り除いたり更新したりすることで,トレーニングデータの介入の程度を定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて,MLコミュニティの手法を用いて因果責任を近似し,プルーニングルールを用いてパターンの大規模な検索空間を管理するモデルバイアスを説明する,トップkパターンを生成するための効率的なアプローチを開発する。
バイアスの同定とデバッグのための解釈可能な説明生成におけるgopherの有効性を実験的に検証した。
関連論文リスト
- DISCO: DISCovering Overfittings as Causal Rules for Text Classification Models [6.369258625916601]
ポストホックの解釈可能性法は、モデルの意思決定プロセスを完全に捉えるのに失敗する。
本稿では,グローバルなルールベースの説明を見つけるための新しい手法であるdisCOを紹介する。
DISCOは対話的な説明をサポートし、人間の検査者がルールベースの出力で突発的な原因を区別できるようにする。
論文 参考訳(メタデータ) (2024-11-07T12:12:44Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Are Data-driven Explanations Robust against Out-of-distribution Data? [18.760475318852375]
エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T02:02:08Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Debiasing Methods in Natural Language Understanding Make Bias More
Accessible [28.877572447481683]
自然言語理解(NLU)における近年のデバイアス化手法は,モデルを押して非バイアス予測を行うことにより,そのようなデータセットの性能を向上させる。
本稿では,言語モデルにおけるバイアスのポストホック解釈を可能にする,一般的な探索型フレームワークを提案する。
反故意に、言語モデルが偏見のない体制にプッシュされるほど、バイアスが実際に内部表現にエンコードされることが示される。
論文 参考訳(メタデータ) (2021-09-09T08:28:22Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。