論文の概要: Generating collective counterfactual explanations in score-based
classification via mathematical optimization
- arxiv url: http://arxiv.org/abs/2310.12822v1
- Date: Thu, 19 Oct 2023 15:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:34:39.273731
- Title: Generating collective counterfactual explanations in score-based
classification via mathematical optimization
- Title(参考訳): 数理最適化によるスコアベース分類における集合的反事実説明の生成
- Authors: Emilio Carrizosa, Jasone Ram\'irez-Ayerbe and Dolores Romero Morales
- Abstract要約: インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
- 参考スコア(独自算出の注目度): 4.281723404774889
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the increasing use of Machine Learning models in high stakes decision
making settings, it has become increasingly important to have tools to
understand how models arrive at decisions. Assuming a trained Supervised
Classification model, explanations can be obtained via counterfactual analysis:
a counterfactual explanation of an instance indicates how this instance should
be minimally modified so that the perturbed instance is classified in the
desired class by the Machine Learning classification model. Most of the
Counterfactual Analysis literature focuses on the single-instance
single-counterfactual setting, in which the analysis is done for one single
instance to provide one single explanation. Taking a stakeholder's perspective,
in this paper we introduce the so-called collective counterfactual
explanations. By means of novel Mathematical Optimization models, we provide a
counterfactual explanation for each instance in a group of interest, so that
the total cost of the perturbations is minimized under some linking
constraints. Making the process of constructing counterfactuals collective
instead of individual enables us to detect the features that are critical to
the entire dataset to have the individuals classified in the desired class. Our
methodology allows for some instances to be treated individually, performing
the collective counterfactual analysis for a fraction of records of the group
of interest. This way, outliers are identified and handled appropriately. Under
some assumptions on the classifier and the space in which counterfactuals are
sought, finding collective counterfactuals is reduced to solving a convex
quadratic linearly constrained mixed integer optimization problem, which, for
datasets of moderate size, can be solved to optimality using existing solvers.
The performance of our approach is illustrated on real-world datasets,
demonstrating its usefulness.
- Abstract(参考訳): 高利害関係の意思決定設定における機械学習モデルの利用の増加により、モデルがどのように決定に到達するかを理解するためのツールがますます重要になっている。
インスタンスの反事実的説明は、このインスタンスが、摂動したインスタンスが機械学習の分類モデルによって所望のクラスに分類されるように、このインスタンスがどのように最小限修正されるべきかを示す。
カウンターファクト・アナリティクスの文献の多くは、単一のインスタンスに対して分析を行い、1つの単一の説明を提供する、単一インスタンスの単一事実設定に焦点を当てている。
本稿では, 利害関係者の視点から, いわゆる集合的対実的説明を紹介する。
新規な数理最適化モデルを用いて,利害関係の群における各インスタンスの反事実的説明を行い,摂動の総コストをリンク制約下で最小化する。
個人に代えて対物集団を構築することにより、データセット全体にとって重要な特徴を検知し、個人を望ましいクラスに分類することが可能になる。
提案手法では,特定の事例を個別に処理し,利害関係のごく一部について集団的反事実分析を行うことができる。
これにより、外れ値が識別され、適切に処理される。
分類器と反事実を求める空間に関するいくつかの仮定の下で、集合的反事実を見つけることは、適度な大きさのデータセットに対して既存の解法を用いて最適に解くことができる凸二次線型制約付き混合整数最適化問題を解くために還元される。
本手法の性能は実世界のデータセットで示され,その有用性を示す。
関連論文リスト
- CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Supervised Feature Compression based on Counterfactual Analysis [3.2458225810390284]
本研究は,事前学習したブラックボックスモデルの重要な決定境界を検出するために,非現実的説明を活用することを目的としている。
離散化されたデータセットを使用して、ブラックボックスモデルに似た最適な決定木をトレーニングすることができるが、解釈可能でコンパクトである。
論文 参考訳(メタデータ) (2022-11-17T21:16:14Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Scalable Optimal Classifiers for Adversarial Settings under Uncertainty [10.90668635921398]
本稿では,攻撃者に対して目的が不明な攻撃者がクラス-1データを生成する対角的設定において,最適な分類器を見つけることの問題点を考察する。
この低次元キャラクタリゼーションにより,ほぼほぼ最適な分類器をスケーラブルに計算する訓練手法が開発可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T13:33:53Z) - From Canonical Correlation Analysis to Self-supervised Graph Neural
Networks [99.44881722969046]
本稿では,グラフデータを用いた自己教師付き表現学習のための概念的単純かつ効果的なモデルを提案する。
古典的カノニカル相関解析にインスパイアされた,革新的な特徴レベルの目的を最適化する。
提案手法は、7つの公開グラフデータセット上で競合的に動作する。
論文 参考訳(メタデータ) (2021-06-23T15:55:47Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。