論文の概要: Are all outliers alike? On Understanding the Diversity of Outliers for
Detecting OODs
- arxiv url: http://arxiv.org/abs/2103.12628v1
- Date: Tue, 23 Mar 2021 15:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 19:30:34.474277
- Title: Are all outliers alike? On Understanding the Diversity of Outliers for
Detecting OODs
- Title(参考訳): 外れ値はすべて同じですか?
OOD検出における外乱の多様性の理解について
- Authors: Ramneet Kaur, Susmit Jha, Anirban Roy, Oleg Sokolsky, Insup Lee
- Abstract要約: 本稿では,不確実性の発生源と性質に基づく OOD アウトプライヤ入力の分類について述べる。
我々は,異なる種類のアウトリーチに対応する複数の属性を用いた新しい統合検出手法を開発した。
- 参考スコア(独自算出の注目度): 11.211251493663267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are known to produce incorrect predictions with
very high confidence on out-of-distribution (OOD) inputs. This limitation is
one of the key challenges in the adoption of deep learning models in
high-assurance systems such as autonomous driving, air traffic management, and
medical diagnosis. This challenge has received significant attention recently,
and several techniques have been developed to detect inputs where the model's
prediction cannot be trusted. These techniques use different statistical,
geometric, or topological signatures. This paper presents a taxonomy of OOD
outlier inputs based on their source and nature of uncertainty. We demonstrate
how different existing detection approaches fail to detect certain types of
outliers. We utilize these insights to develop a novel integrated detection
approach that uses multiple attributes corresponding to different types of
outliers. Our results include experiments on CIFAR10, SVHN and MNIST as
in-distribution data and Imagenet, LSUN, SVHN (for CIFAR10), CIFAR10 (for
SVHN), KMNIST, and F-MNIST as OOD data across different DNN architectures such
as ResNet34, WideResNet, DenseNet, and LeNet5.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オフ・オブ・ディストリビューション(OOD)の入力に非常に高い信頼性を持つ誤った予測を生成することが知られている。
この制限は、自律運転、航空交通管理、医療診断などの高信頼システムにおけるディープラーニングモデルの採用における重要な課題の1つである。
この課題は最近大きな注目を集めており、モデルの予測が信頼できない入力を検出する技術がいくつか開発されている。
これらの技法は異なる統計学的、幾何学的、位相的特徴を用いる。
本稿では,OOD外乱入力の出自と不確実性の性質に基づく分類法を提案する。
既存の検出アプローチが、ある種の外れ値の検出に失敗する様子を実証する。
これらの知見を応用して、異なるタイプの外れ値に対応する複数の属性を利用する新しい統合検出手法を開発する。
CIFAR10, SVHN, MNISTをin-distriionとして, Imagenet, LSUN, SVHN (for CIFAR10), CIFAR10 (for SVHN), KMNIST, F-MNISTを, ResNet34, WideResNet, DenseNet, LeNet5などの異なるDNNアーキテクチャのOODデータとして実験した。
関連論文リスト
- What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - TEN-GUARD: Tensor Decomposition for Backdoor Attack Detection in Deep
Neural Networks [3.489779105594534]
本稿では,ネットワークアクティベーションに適用した2つのテンソル分解法によるバックドア検出手法を提案する。
これは、複数のモデルを同時に分析する機能など、既存の検出方法と比較して、多くの利点がある。
その結果,現在の最先端手法よりも,バックドアネットワークを高精度かつ効率的に検出できることがわかった。
論文 参考訳(メタデータ) (2024-01-06T03:08:28Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Igeood: An Information Geometry Approach to Out-of-Distribution
Detection [35.04325145919005]
Igeoodは, オフ・オブ・ディストリビューション(OOD)サンプルを効果的に検出する手法である。
Igeoodは任意のトレーニング済みニューラルネットワークに適用され、機械学習モデルにさまざまなアクセス権を持つ。
Igeoodは、さまざまなネットワークアーキテクチャやデータセットにおいて、競合する最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T11:26:35Z) - Detecting OODs as datapoints with High Uncertainty [12.040347694782007]
ディープニューラルネットワーク(DNN)は、オフ・オブ・ディストリビューション・インプット(OOD)に非常に高い信頼を持つ誤った予測を生成することが知られている。
この制限は、自律運転、航空交通管理、医療診断などの高信頼システムにおけるDNNの採用における重要な課題の1つである。
モデルの予測が信頼できない入力を検出するために、いくつかの技術が開発されている。
我々は,これらの手法の検知能力の違いを実証し,不確実性の高いデータポイントとしてOODを検出するためのアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-13T20:07:42Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。