論文の概要: Explaining k-Nearest Neighbors: Abductive and Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2501.06078v1
- Date: Fri, 10 Jan 2025 16:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:28:10.570207
- Title: Explaining k-Nearest Neighbors: Abductive and Counterfactual Explanations
- Title(参考訳): k-Nearest Neborsの解説:帰納的・非実効的説明
- Authors: Pablo Barceló, Alexander Kozachinskiy, Miguel Romero Orth, Bernardo Subercaseaux, José Verschae,
- Abstract要約: 我々は、$barx$説明は高次元のアプリケーションでは非現実的であり、各ベクトルには数百から数千の特徴があると主張している。
我々は「最小の十分な理由」のような帰納的説明を、その分類を保証するのに十分である$barx$の一連の特徴に対応するものとして研究する。
本稿では, 実証的, 否定的複雑性の結果を, 事実的, 帰納的な説明に対して詳細に示す。
- 参考スコア(独自算出の注目度): 48.13753926484667
- License:
- Abstract: Despite the wide use of $k$-Nearest Neighbors as classification models, their explainability properties remain poorly understood from a theoretical perspective. While nearest neighbors classifiers offer interpretability from a "data perspective", in which the classification of an input vector $\bar{x}$ is explained by identifying the vectors $\bar{v}_1, \ldots, \bar{v}_k$ in the training set that determine the classification of $\bar{x}$, we argue that such explanations can be impractical in high-dimensional applications, where each vector has hundreds or thousands of features and it is not clear what their relative importance is. Hence, we focus on understanding nearest neighbor classifications through a "feature perspective", in which the goal is to identify how the values of the features in $\bar{x}$ affect its classification. Concretely, we study abductive explanations such as "minimum sufficient reasons", which correspond to sets of features in $\bar{x}$ that are enough to guarantee its classification, and "counterfactual explanations" based on the minimum distance feature changes one would have to perform in $\bar{x}$ to change its classification. We present a detailed landscape of positive and negative complexity results for counterfactual and abductive explanations, distinguishing between discrete and continuous feature spaces, and considering the impact of the choice of distance function involved. Finally, we show that despite some negative complexity results, Integer Quadratic Programming and SAT solving allow for computing explanations in practice.
- Abstract(参考訳): 分類モデルとして$k$-Nearest Neighborsが広く使われているにもかかわらず、それらの説明可能性特性は理論的な観点からはあまり理解されていない。
近隣の分類器は「データの観点から」解釈可能性を提供し、入力ベクトル $\bar{x}$ の分類は、$\bar{v}_1, \ldots, \bar{v}_k$ の分類を決定するトレーニングセットにおいてベクトル $\bar{v}_k$ を識別することによって説明されるが、これらの説明は高次元のアプリケーションでは非現実的であり、それぞれのベクトルには数百から数千の特徴がある。
したがって、我々は、$\bar{x}$における特徴の値がその分類にどのように影響するかを特定することを目的としている「機能的視点」を通して、近隣の分類を理解することに集中する。
具体的には、分類を保証するのに十分な$\bar{x}$の特徴集合に対応する「最小十分な理由」や、分類を変更するために$\bar{x}$で実行する必要のある最小距離の特徴変化に基づいて「数値的説明」などの帰納的説明について検討する。
本稿では, 離散的特徴空間と連続的特徴空間を区別し, 関係する距離関数の選択の影響を考慮し, 対実的および帰納的説明に対する正および負の複雑性結果の詳細な展望を示す。
最後に,Integer Quadratic Programming と SAT の解法は,いくつかの負の複雑性結果にもかかわらず,実際に計算説明が可能であることを示す。
関連論文リスト
- Repeated Observations for Classification [0.2676349883103404]
繰り返し観測を行った結果,非パラメトリック分類の問題について検討した。
本分析では, 名目密度によるロバスト検出, プロトタイプ分類, 線形変換, 線形分類, スケーリングなどのモデルについて検討する。
論文 参考訳(メタデータ) (2023-07-19T10:50:36Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Zero-Shot Classification by Logical Reasoning on Natural Language
Explanations [56.42922904777717]
我々はCLOREフレームワークを提案する(説明の論理的推論による分類)。
CLOREは、説明を論理構造にパースし、入力のthess構造に沿って明示的に理由付け、分類スコアを生成する。
また、我々のフレームワークは視覚的モダリティのゼロショット分類にまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T01:05:11Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Obstructing Classification via Projection [2.456909016197174]
バイアス除去の可能なアプローチをモデル化する幾何学的問題について検討する。
優先事項として、各プロパティに従ってデータを分類することが"簡単"であると仮定する。
我々のゴールは、より低次元ユークリッド空間 Rm への適切な射影により、ある性質による分類を妨害することである。
論文 参考訳(メタデータ) (2021-05-19T10:28:15Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Counterfactual Explanations for Oblique Decision Trees: Exact, Efficient
Algorithms [0.0]
我々は、ソース入力インスタンスにおける特徴を最小に調整して、与えられた分類の下で対象クラスに分類する問題である、反事実的説明を考える。
これは、トレーニングされたモデルをクエリし、決定を覆す可能性のあるアクションを提案する手段として、最近の関心事となっている。
論文 参考訳(メタデータ) (2021-03-01T16:04:33Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。