論文の概要: An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2005.10284v4
- Date: Mon, 28 Sep 2020 16:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:29:47.097581
- Title: An Adversarial Approach for Explaining the Predictions of Deep Neural
Networks
- Title(参考訳): 深層ニューラルネットワークの予測を説明するための敵対的アプローチ
- Authors: Arash Rahnama and Andrew Tseng
- Abstract要約: 本稿では,敵対的機械学習を用いて,ディープニューラルネットワーク(DNN)の予測を説明する新しいアルゴリズムを提案する。
提案手法は,DNNに対する敵攻撃の挙動に基づいて,入力特徴の相対的重要性を推定する。
分析により、一貫性のある効率的な説明が得られます。
- 参考スコア(独自算出の注目度): 9.645196221785694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have been successfully applied to a wide range of
applications including computer vision, natural language processing, and speech
recognition. A successful implementation of these models however, usually
relies on deep neural networks (DNNs) which are treated as opaque black-box
systems due to their incomprehensible complexity and intricate internal
mechanism. In this work, we present a novel algorithm for explaining the
predictions of a DNN using adversarial machine learning. Our approach
identifies the relative importance of input features in relation to the
predictions based on the behavior of an adversarial attack on the DNN. Our
algorithm has the advantage of being fast, consistent, and easy to implement
and interpret. We present our detailed analysis that demonstrates how the
behavior of an adversarial attack, given a DNN and a task, stays consistent for
any input test data point proving the generality of our approach. Our analysis
enables us to produce consistent and efficient explanations. We illustrate the
effectiveness of our approach by conducting experiments using a variety of
DNNs, tasks, and datasets. Finally, we compare our work with other well-known
techniques in the current literature.
- Abstract(参考訳): 機械学習モデルは、コンピュータビジョン、自然言語処理、音声認識など、幅広い応用にうまく適用されている。
しかしながら、これらのモデルの成功した実装は、通常、理解不能な複雑さと複雑な内部メカニズムのために不透明なブラックボックスシステムとして扱われるディープニューラルネットワーク(DNN)に依存している。
本研究では,DNNの予測を逆機械学習を用いて記述する新しいアルゴリズムを提案する。
提案手法は,dnnに対する攻撃行動に基づく予測に関連して,入力特徴の相対的重要性を明らかにする。
我々のアルゴリズムは高速で一貫性があり、実装や解釈が容易である。
DNNとタスクが与えられた場合、我々のアプローチの汎用性を証明するあらゆる入力テストデータポイントに対して、敵攻撃の挙動が整合的であることを示す詳細な分析を行う。
分析によって、一貫性と効率的な説明が得られます。
各種DNN,タスク,データセットを用いて実験を行い,本手法の有効性について述べる。
最後に,本研究を他の文献でよく知られた手法と比較する。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Towards Better Explanations for Object Detection [0.0]
本稿では,D-CLOSEと呼ばれるオブジェクト検出モデルについて,その決定を説明する手法を提案する。
我々は,YOLOXモデルを用いてMS-COCOデータセットの試験を行い,本手法がD-RISEより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T09:52:05Z) - DeepSeer: Interactive RNN Explanation and Debugging via State
Abstraction [10.110976560799612]
リカレントニューラルネットワーク(RNN)は自然言語処理(NLP)タスクで広く使われている。
DeepSeerは、RNNの振る舞いのグローバルとローカルの両方の説明を提供するインタラクティブシステムである。
論文 参考訳(メタデータ) (2023-03-02T21:08:17Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z) - Distillation of Weighted Automata from Recurrent Neural Networks using a
Spectral Approach [0.0]
本稿では,ディープラーニングと文法推論のギャップを埋める試みである。
言語モデリングのためにトレーニングされたリカレントニューラルネットワークからフォーマルな言語を抽出するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-28T07:04:15Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Bayesian Neural Networks: An Introduction and Survey [22.018605089162204]
本稿ではベイズニューラルネットワーク(BNN)とその実装に関する基礎研究を紹介する。
異なる近似推論法を比較し、将来の研究が現在の手法でどのように改善されるかを強調するために使用される。
論文 参考訳(メタデータ) (2020-06-22T06:30:15Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。