論文の概要: Behavior of k-NN as an Instance-Based Explanation Method
- arxiv url: http://arxiv.org/abs/2109.06999v1
- Date: Tue, 14 Sep 2021 22:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 04:41:32.976662
- Title: Behavior of k-NN as an Instance-Based Explanation Method
- Title(参考訳): 事例ベース説明法としてのk-NNの挙動
- Authors: Chhavi Yadav and Kamalika Chaudhuri
- Abstract要約: インスタンスベースの説明メソッドは、テストサンプルの予測を説明するために、トレーニングセットから選択インスタンスを返す人気型である。
本論文は, 実例に基づく説明手法の自然競合であるk-NNに対して, この問題に答えるものである。
- 参考スコア(独自算出の注目度): 26.27046865670577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adoption of DL models in critical areas has led to an escalating demand for
sound explanation methods. Instance-based explanation methods are a popular
type that return selective instances from the training set to explain the
predictions for a test sample. One way to connect these explanations with
prediction is to ask the following counterfactual question - how does the loss
and prediction for a test sample change when explanations are removed from the
training set? Our paper answers this question for k-NNs which are natural
contenders for an instance-based explanation method. We first demonstrate
empirically that the representation space induced by last layer of a neural
network is the best to perform k-NN in. Using this layer, we conduct our
experiments and compare them to influence functions (IFs)
~\cite{koh2017understanding} which try to answer a similar question. Our
evaluations do indicate change in loss and predictions when explanations are
removed but we do not find a trend between $k$ and loss or prediction change.
We find significant stability in the predictions and loss of MNIST vs.
CIFAR-10. Surprisingly, we do not observe much difference in the behavior of
k-NNs vs. IFs on this question. We attribute this to training set subsampling
for IFs.
- Abstract(参考訳): 臨界領域でのdlモデルの採用は、音響説明法に対する需要の高まりにつながった。
インスタンスベースの説明メソッドは、テストサンプルの予測を説明するためにトレーニングセットから選択インスタンスを返す一般的な型である。
これらの説明を予測と結びつけるひとつの方法は、以下の反事実的疑問 - トレーニングセットから説明が削除された場合、テストサンプルの損失と予測はどのように変化するか - を問うことである。
本論文は, 実例に基づく説明手法の自然競合であるk-NNに対して, この問題に答えるものである。
まず、ニューラルネットワークの最後の層によって誘導される表現空間が、k-NNの実行に最適であることを示す。
この層を用いて実験を行い、同様の疑問に答えようとする影響関数 (IFs) ~\cite{koh2017understanding} と比較する。
評価は,説明が削除された場合の損失や予測の変化を示すが,$k$と損失・予測の傾向は見つからない。
我々はMNIST vs. CIFAR-10の予測と損失に大きな安定性を見出した。
驚いたことに、この質問ではk-NNsとIFsの挙動に大きな差は見られません。
これはIFのためのトレーニングセットサブサンプリングによるものです。
関連論文リスト
- Deep Limit Model-free Prediction in Regression [0.0]
本稿では,DNN(Deep Neural Network)に基づくモデルフリーアプローチにより,一般的な回帰条件下での点予測と予測間隔を実現する。
提案手法は,特に最適点予測において,他のDNN法に比べて安定かつ正確である。
論文 参考訳(メタデータ) (2024-08-18T16:37:53Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Empowering Counterfactual Reasoning over Graph Neural Networks through
Inductivity [7.094238868711952]
グラフニューラルネットワーク(GNN)には、薬物発見、レコメンデーションエンジン、チップ設計など、さまざまな実用的応用がある。
因果推論は、GNNの入力グラフの変更を最小限に抑えて予測を変更するために用いられる。
論文 参考訳(メタデータ) (2023-06-07T23:40:18Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Causality for Inherently Explainable Transformers: CAT-XPLAIN [16.85887568521622]
我々は、最近提案されたケースワイズ・ポストホック因果説明法を用いて、既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
我々のモデルは、与えられたインスタンスの入力空間におけるトップ$k$領域の形で、その決定に寄与する説明を提供する。
論文 参考訳(メタデータ) (2022-06-29T18:11:01Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities [2.0931163605360115]
説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
論文 参考訳(メタデータ) (2021-04-29T13:59:21Z) - ECINN: Efficient Counterfactuals from Invertible Neural Networks [80.94500245955591]
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
論文 参考訳(メタデータ) (2021-03-25T09:23:24Z) - CF-GNNExplainer: Counterfactual Explanations for Graph Neural Networks [40.47070962945751]
グラフニューラルネットワーク(GNN)は、現実世界のアプリケーションにおいて、ますます有望であることが示されている。
本稿では, CF-GNNExplainerを提案する。
論文 参考訳(メタデータ) (2021-02-05T17:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。