論文の概要: Detection of out-of-distribution samples using binary neuron activation
patterns
- arxiv url: http://arxiv.org/abs/2212.14268v2
- Date: Fri, 24 Mar 2023 16:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 17:55:19.998569
- Title: Detection of out-of-distribution samples using binary neuron activation
patterns
- Title(参考訳): 二元性ニューロン活性化パターンを用いた分布外サンプルの検出
- Authors: Bartlomiej Olber, Krystian Radlak, Adam Popowicz, Michal
Szczepankiewicz, Krystian Chachu{\l}a
- Abstract要約: 未確認入力を新しいものとして識別する能力は、自動運転車、無人航空機、ロボットなどの安全上重要な応用に不可欠である。
OODサンプルを検出するための既存のアプローチでは、DNNをブラックボックスとして扱い、出力予測の信頼性スコアを評価する。
本稿では,新しいOOD検出法を提案する。本手法は,ReLUアーキテクチャにおけるニューロン活性化パターン(NAP)の理論的解析に動機付けられている。
- 参考スコア(独自算出の注目度): 0.26249027950824505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNN) have outstanding performance in various
applications. Despite numerous efforts of the research community,
out-of-distribution (OOD) samples remain a significant limitation of DNN
classifiers. The ability to identify previously unseen inputs as novel is
crucial in safety-critical applications such as self-driving cars, unmanned
aerial vehicles, and robots. Existing approaches to detect OOD samples treat a
DNN as a black box and evaluate the confidence score of the output predictions.
Unfortunately, this method frequently fails, because DNNs are not trained to
reduce their confidence for OOD inputs. In this work, we introduce a novel
method for OOD detection. Our method is motivated by theoretical analysis of
neuron activation patterns (NAP) in ReLU-based architectures. The proposed
method does not introduce a high computational overhead due to the binary
representation of the activation patterns extracted from convolutional layers.
The extensive empirical evaluation proves its high performance on various DNN
architectures and seven image datasets.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々なアプリケーションで優れた性能を発揮する。
研究コミュニティの多くの努力にもかかわらず、アウト・オブ・ディストリビューション(OOD)サンプルはDNN分類器の重要な制限として残っている。
未発見の入力を新規に識別する能力は、自動運転車、無人航空機、ロボットといった安全上重要な応用において不可欠である。
OODサンプルを検出するための既存のアプローチでは、DNNをブラックボックスとして扱い、出力予測の信頼性スコアを評価する。
残念ながら、DNNはOOD入力に対する信頼を減らすために訓練されていないため、この方法は頻繁に失敗する。
本研究では,OOD検出のための新しい手法を提案する。
この手法は、ReLUアーキテクチャにおけるニューロン活性化パターン(NAP)の理論解析によって動機づけられる。
提案手法では,畳み込み層から抽出した活性化パターンのバイナリ表現による計算オーバーヘッドが高まることはない。
広範な実証評価により、様々なDNNアーキテクチャと7つの画像データセットの性能が証明された。
関連論文リスト
- Out-of-Distribution Detection using Neural Activation Prior [15.673290330356194]
アウト・オブ・ディストリビューション検出(OOD)は、機械学習モデルを現実世界にデプロイする上で重要な技術である。
OOD検出のためのシンプルで効果的なニューラルアクティベーションプリミティブ(NAP)を提案する。
提案手法は,CIFARベンチマークとImageNetデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-28T08:45:07Z) - Evaluation of Out-of-Distribution Detection Performance on Autonomous
Driving Datasets [5.000404730573809]
ディープニューラルネットワーク(DNN)の意図した性能をどの程度評価するかについて、安全対策を体系的に検討する必要がある。
本研究は,予測されたクラスに対する最も予測可能なクラス条件ガウス分布に基づいて,マハラノビス距離(MD)を適用して,意味的セグメンテーションDNNからの出力をOODスコアとして評価する。
本研究の適用性は,自動車認識におけるDNNの安全利用を主張する上で,安全対策の正当性をサポートし,その使用を動機付けるものである。
論文 参考訳(メタデータ) (2024-01-30T13:49:03Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Model2Detector:Widening the Information Bottleneck for
Out-of-Distribution Detection using a Handful of Gradient Steps [12.263417500077383]
アウト・オブ・ディストリビューション検出は、長いバニラニューラルネットワークを持つ重要な機能である。
推論時間外分布検出の最近の進歩は、これらの問題のいくつかを緩和するのに役立つ。
提案手法は,一般的な画像データセットにおける検出精度において,常に最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-22T23:03:40Z) - Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks [26.0303701309125]
本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
論文 参考訳(メタデータ) (2021-02-25T16:14:47Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z) - FOOD: Fast Out-Of-Distribution Detector [43.31844129399436]
FOODは、最小の推論時間オーバーヘッドでOODサンプルを効率的に検出できる拡張ディープニューラルネットワーク(DNN)である。
SVHN, CIFAR-10, CIFAR-100データセット上でのFOODの検出性能を評価する。
以上の結果から, FOODは最先端性能の達成に加えて, 実世界のアプリケーションにも適用可能であることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T08:22:43Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。