論文の概要: Entropy Maximization and Meta Classification for Out-Of-Distribution
Detection in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2012.06575v1
- Date: Wed, 9 Dec 2020 11:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:10:59.629463
- Title: Entropy Maximization and Meta Classification for Out-Of-Distribution
Detection in Semantic Segmentation
- Title(参考訳): 意味セグメンテーションにおける外分布検出のためのエントロピー最大化とメタ分類
- Authors: Robin Chan, Matthias Rottmann, Hanno Gottschalk
- Abstract要約: 自動運転など多くのアプリケーションにおいて,OoD(Out-of-Distribution)サンプルが不可欠である。
OoD検出の自然なベースラインアプローチは、ピクセル回りのソフトマックスエントロピーのしきい値です。
そのアプローチを大幅に改善する2段階の手順を提案する。
- 参考スコア(独自算出の注目度): 7.305019142196585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) for the semantic segmentation of images are
usually trained to operate on a predefined closed set of object classes. This
is in contrast to the "open world" setting where DNNs are envisioned to be
deployed to. From a functional safety point of view, the ability to detect
so-called "out-of-distribution" (OoD) samples, i.e., objects outside of a DNN's
semantic space, is crucial for many applications such as automated driving. A
natural baseline approach to OoD detection is to threshold on the pixel-wise
softmax entropy. We present a two-step procedure that significantly improves
that approach. Firstly, we utilize samples from the COCO dataset as OoD proxy
and introduce a second training objective to maximize the softmax entropy on
these samples. Starting from pretrained semantic segmentation networks we
re-train a number of DNNs on different in-distribution datasets and
consistently observe improved OoD detection performance when evaluating on
completely disjoint OoD datasets. Secondly, we perform a transparent
post-processing step to discard false positive OoD samples by so-called "meta
classification". To this end, we apply linear models to a set of hand-crafted
metrics derived from the DNN's softmax probabilities. In our experiments we
consistently observe a clear additional gain in OoD detection performance,
cutting down the number of detection errors by up to 52% when comparing the
best baseline with our results. We achieve this improvement sacrificing only
marginally in original segmentation performance. Therefore, our method
contributes to safer DNNs with more reliable overall system performance.
- Abstract(参考訳): イメージの意味セグメンテーションのためのディープニューラルネットワーク(dnn)は通常、事前に定義されたオブジェクトクラスのクローズドセットを操作するように訓練される。
これは、DNNがデプロイされる「オープンワールド」設定とは対照的である。
機能的安全性の観点からは、DNNのセマンティック空間外のオブジェクトであるいわゆる"out-of-distriion"(OoD)サンプルを検出する能力は、自動運転のような多くのアプリケーションにとって不可欠である。
ood検出に対する自然なベースラインアプローチは、ピクセル単位のソフトマックスエントロピーのしきい値である。
そのアプローチを大幅に改善する2段階の手順を提案する。
まず、COCOデータセットのサンプルをOoDプロキシとして利用し、これらのサンプルのソフトマックスエントロピーを最大化するための第2のトレーニング目標を導入する。
事前トレーニングされたセマンティックセグメンテーションネットワークから、異なる分散データセット上で多数のDNNを再トレーニングし、完全に非結合なOoDデータセットを評価する際に、改善されたOoD検出性能を継続的に観察する。
次に,「メタ分類」と呼ばれる偽陽性のoodサンプルを廃棄するための透明な後処理ステップを行う。
この目的のために、DNNのソフトマックス確率から導かれる手作りメトリクスの集合に線形モデルを適用する。
私たちの実験では、最良のベースラインと結果を比較する際に、検出エラーの数を最大52%削減することで、ood検出性能のさらなる向上を一貫して観察しています。
この改善は、オリジナルセグメンテーションのパフォーマンスにおいて、わずかに損なわれる。
そこで本手法は,より信頼性の高いシステム性能を持つDNNに寄与する。
関連論文リスト
- Tilt your Head: Activating the Hidden Spatial-Invariance of Classifiers [0.7704032792820767]
ディープニューラルネットワークは、日々の生活の多くの領域に適用されている。
これらは、空間的に変換された入力信号に頑健に対処するなど、依然として必須の能力が欠如している。
本稿では,ニューラルネットの推論過程をエミュレートする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:47:29Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Pixel-wise Gradient Uncertainty for Convolutional Neural Networks
applied to Out-of-Distribution Segmentation [0.43512163406552007]
本稿では,推定時に効率よく計算できる画素単位の損失勾配から不確実点を求める手法を提案する。
本実験は,提案手法が誤った画素分類を識別し,無視可能な計算オーバーヘッドで予測品質を推定する能力を示す。
論文 参考訳(メタデータ) (2023-03-13T08:37:59Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - Raising the Bar on the Evaluation of Out-of-Distribution Detection [88.70479625837152]
我々は、知覚/視覚的・意味的類似性の概念をiDデータと微妙に異なる概念を用いて、OoDデータの2つのカテゴリを定義した。
iD データセットが与えられた2つのカテゴリそれぞれから OoD サンプルを生成するための GAN ベースのフレームワークを提案する。
従来のベンチマークで非常によく機能する最先端のOoD検出手法は,提案したベンチマークよりもはるかに堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-24T08:48:36Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Meta-learning for Out-of-Distribution Detection via Density Estimation
in Latent Space [40.58524521473793]
そこで本研究では,OoD を目標タスク内の小さな分布データで検出する,シンプルで効果的なメタ学習手法を提案する。
すべてのタスク間で共有されるニューラルネットワークは、元の空間のインスタンスを潜在空間に柔軟にマッピングするために使用される。
6つのデータセットを用いた実験において,提案手法は既存のメタラーニング法やOoD検出法よりも優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2022-06-20T02:44:42Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data [87.61504710345528]
我々は,OoD検出性能を改善しつつ,ニューラルネットワークをOoDデータのチューニングから解放する2つの方法を提案する。
具体的には、信頼性スコアリングと修正された入力前処理法を分離することを提案する。
大規模画像データセットのさらなる解析により、セマンティックシフトと非セマンティックシフトの2種類の分布シフトが有意な差を示すことが示された。
論文 参考訳(メタデータ) (2020-02-26T04:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。