論文の概要: A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks
- arxiv url: http://arxiv.org/abs/2210.00894v1
- Date: Fri, 30 Sep 2022 11:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:04:26.664515
- Title: A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための新しい説明可能な分布外検出手法
- Authors: Aitor Martinez Seras, Javier Del Ser, Jesus L. Lobo, Pablo
Garcia-Bringas, Nikola Kasabov
- Abstract要約: この研究は、スパイキングニューラルネットワークに入力されたテスト例がトレーニングされたデータの分布に属するかどうかを識別できる新しいOoD検出器を提案する。
我々は、スパイクカウントパターンの形で、ネットワークの隠蔽層の内部活性化を特徴付ける。
入力インスタンスのどの部分が最もOoDサンプルとして検出されるかを明らかにする属性マップを作成するために,局所的な説明法が考案された。
- 参考スコア(独自算出の注目度): 6.100274095771616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research around Spiking Neural Networks has ignited during the last years due
to their advantages when compared to traditional neural networks, including
their efficient processing and inherent ability to model complex temporal
dynamics. Despite these differences, Spiking Neural Networks face similar
issues than other neural computation counterparts when deployed in real-world
settings. This work addresses one of the practical circumstances that can
hinder the trustworthiness of this family of models: the possibility of
querying a trained model with samples far from the distribution of its training
data (also referred to as Out-of-Distribution or OoD data). Specifically, this
work presents a novel OoD detector that can identify whether test examples
input to a Spiking Neural Network belong to the distribution of the data over
which it was trained. For this purpose, we characterize the internal
activations of the hidden layers of the network in the form of spike count
patterns, which lay a basis for determining when the activations induced by a
test instance is atypical. Furthermore, a local explanation method is devised
to produce attribution maps revealing which parts of the input instance push
most towards the detection of an example as an OoD sample. Experimental results
are performed over several image classification datasets to compare the
proposed detector to other OoD detection schemes from the literature. As the
obtained results clearly show, the proposed detector performs competitively
against such alternative schemes, and produces relevance attribution maps that
conform to expectations for synthetically created OoD instances.
- Abstract(参考訳): スパイキングニューラルネットワークに関する研究は、従来のニューラルネットワークと比較して、効率的な処理と複雑な時間的ダイナミクスをモデル化する固有の能力を含む利点から、ここ数年で着火している。
これらの違いにもかかわらず、Spike Neural Networksは、現実世界にデプロイする他のニューラルネットワークと同じような問題に直面している。
この研究は、トレーニングデータの分布から遠く離れたサンプルでトレーニングされたモデルをクエリできる可能性(Out-of-DistributionまたはOoDデータとも呼ばれる)という、このモデルの信頼性を阻害する現実的な状況の1つに対処する。
具体的には、スパイキングニューラルネットワークに入力されたテストサンプルが、トレーニングされたデータの分布に属するかどうかを識別する新しいood検出器を提案する。
この目的のために、テストインスタンスによって誘導されるアクティベーションが非典型的であるかどうかを決定するための基礎となるスパイクカウントパターンの形で、ネットワークの隠蔽層の内部アクティベーションを特徴付ける。
さらに,入力インスタンスのどの部分がoodサンプルとしてサンプルの検出に最も向くかを示す帰属マップを作成するために,局所的な説明法が考案された。
複数の画像分類データセットを用いて実験を行い,提案手法と他のood検出手法との比較を行った。
得られた結果から, 提案する検出器は, これらの代替手法に対して競合的に動作し, 合成OoDインスタンスの期待に合致した関連属性マップを生成する。
関連論文リスト
- Hypothesis-Driven Deep Learning for Out of Distribution Detection [0.8191518216608217]
本稿では,新しいサンプルがInDなのかOoDなのかを定量化する仮説駆動型手法を提案する。
細菌のサンプルを学習した深層学習モデルに適応させ,InDとOoDの潜伏反応の解釈的差異を明らかにする。
論文 参考訳(メタデータ) (2024-03-21T01:06:47Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - on the effectiveness of generative adversarial network on anomaly
detection [1.6244541005112747]
GANは、実際のトレーニング分布を特定するために、これらのモデルのリッチなコンテキスト情報に依存している。
本稿では,自動エンコーダとGANを組み合わせた新しい教師なしモデルを提案する。
識別器の内部表現と生成器の視覚表現の線形結合と、オートエンコーダの符号化表現とを組み合わせて、提案した異常スコアを定義する。
論文 参考訳(メタデータ) (2021-12-31T16:35:47Z) - Out-of-Distribution Example Detection in Deep Neural Networks using
Distance to Modelled Embedding [0.0]
予測時間における分布外例の検出に使用するDIME(Distance to Modelled Embedding)を提案する。
線形超平面として特徴空間に埋め込まれたトレーニングセットを近似することにより、単純で教師なし、高性能で計算効率の良い手法を導出する。
論文 参考訳(メタデータ) (2021-08-24T12:28:04Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。