論文の概要: ECINN: Efficient Counterfactuals from Invertible Neural Networks
- arxiv url: http://arxiv.org/abs/2103.13701v1
- Date: Thu, 25 Mar 2021 09:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:49:45.821586
- Title: ECINN: Efficient Counterfactuals from Invertible Neural Networks
- Title(参考訳): ECINN: 倒立型ニューラルネットワークの効率的対効果
- Authors: Frederik Hvilsh{\o}j, Alexandros Iosifidis, and Ira Assent
- Abstract要約: 本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
- 参考スコア(独自算出の注目度): 80.94500245955591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual examples identify how inputs can be altered to change the
predicted class of a classifier, thus opening up the black-box nature of, e.g.,
deep neural networks. We propose a method, ECINN, that utilizes the generative
capacities of invertible neural networks for image classification to generate
counterfactual examples efficiently. In contrast to competing methods that
sometimes need a thousand evaluations or more of the classifier, ECINN has a
closed-form expression and generates a counterfactual in the time of only two
evaluations. Arguably, the main challenge of generating counterfactual examples
is to alter only input features that affect the predicted outcome, i.e.,
class-dependent features. Our experiments demonstrate how ECINN alters
class-dependent image regions to change the perceptual and predicted class of
the counterfactuals. Additionally, we extend ECINN to also produce heatmaps
(ECINNh) for easy inspection of, e.g., pairwise class-dependent changes in the
generated counterfactual examples. Experimentally, we find that ECINNh
outperforms established methods that generate heatmap-based explanations.
- Abstract(参考訳): 対実例では、入力をどのように変更して分類器の予測クラスを変更するかを特定し、例えばディープニューラルネットワークのブラックボックスの性質を開放する。
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
数千以上の評価を必要とする競合する手法とは対照的に、ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
反実例を生成する主な課題は、予測結果、すなわちクラス依存的な特徴に影響を及ぼす入力特徴だけを変更することである。
実験では,ECINNがクラス依存の画像領域を変更して,その知覚的・予測的クラスを変更する方法を示した。
さらに、ECINNを拡張してヒートマップ(ECINNh)を生成し、例えば、生成した反ファクト例のペア単位のクラス依存的な変更を簡単に検査する。
実験により,ECINNhは熱マップに基づく説明を生成する手法よりも優れていることがわかった。
関連論文リスト
- PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Improving Sound Event Classification by Increasing Shift Invariance in
Convolutional Neural Networks [14.236193187116047]
近年の研究では、畳み込みネットワークの一般に仮定されるシフト不変性に疑問が呈されている。
我々は、低域フィルタと入ってくる特徴写像の適応サンプリングに基づいて、CNNにおけるシフト不変性を改善する2つの方法を評価する。
これらの修正は、トレーニング可能なパラメータを追加(あるいはごく少数)することなく、考慮すべきすべてのケースにおいて、音事象の分類を一貫して改善することを示します。
論文 参考訳(メタデータ) (2021-07-01T17:21:02Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Shift Invariance Can Reduce Adversarial Robustness [20.199887291186364]
シフト不変性は、分類のパフォーマンスを向上させるCNNの重要な特性です。
円偏移に対する不変性は、敵の攻撃に対する感受性を高めることも示している。
論文 参考訳(メタデータ) (2021-03-03T21:27:56Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。