論文の概要: Multi-Class Data Description for Out-of-distribution Detection
- arxiv url: http://arxiv.org/abs/2104.00941v1
- Date: Fri, 2 Apr 2021 08:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 20:37:09.558102
- Title: Multi-Class Data Description for Out-of-distribution Detection
- Title(参考訳): 分布外検出のためのマルチクラスデータ記述
- Authors: Dongha Lee, Sehun Yu, Hwanjo Yu
- Abstract要約: Deep-MCDDは、分布外(OOD)サンプルを検出するだけでなく、分布内(ID)サンプルを分類するのに効果的です。
ガウス微分分析の概念をディープニューラルネットワークに統合することにより,クラス条件分布を学習する深層学習目標を提案する。
- 参考スコア(独自算出の注目度): 25.853322158250435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The capability of reliably detecting out-of-distribution samples is one of
the key factors in deploying a good classifier, as the test distribution always
does not match with the training distribution in most real-world applications.
In this work, we present a deep multi-class data description, termed as
Deep-MCDD, which is effective to detect out-of-distribution (OOD) samples as
well as classify in-distribution (ID) samples. Unlike the softmax classifier
that only focuses on the linear decision boundary partitioning its latent space
into multiple regions, our Deep-MCDD aims to find a spherical decision boundary
for each class which determines whether a test sample belongs to the class or
not. By integrating the concept of Gaussian discriminant analysis into deep
neural networks, we propose a deep learning objective to learn
class-conditional distributions that are explicitly modeled as separable
Gaussian distributions. Thereby, we can define the confidence score by the
distance of a test sample from each class-conditional distribution, and utilize
it for identifying OOD samples. Our empirical evaluation on multi-class tabular
and image datasets demonstrates that Deep-MCDD achieves the best performances
in distinguishing OOD samples while showing the classification accuracy as high
as the other competitors.
- Abstract(参考訳): 分散サンプルを確実に検出する能力は、優れた分類器をデプロイする上で重要な要因の1つであり、テスト分布は、ほとんどの実世界のアプリケーションでトレーニング分布と常に一致しない。
本研究では,Deep-MCDD(Deep-MCDD)と呼ばれる深層多層データ記述法を提案する。これは,OoD(out-of-distriion)サンプルの検出や,ID(In-distriion)サンプルの分類に有効である。
潜在空間を複数の領域に分割する線形決定境界のみに焦点を当てたsoftmax分類器とは異なり、deep-mcddはテストサンプルがクラスに属するかどうかを決定する各クラスの球面決定境界を見つけることを目指している。
ガウス微分分析の概念を深層ニューラルネットワークに組み込むことにより,分離可能なガウス分布として明示的にモデル化されたクラス条件分布を学習する深層学習目標を提案する。
これにより、各クラス条件分布からテストサンプルの距離によって信頼性スコアを定義し、OODサンプルの同定に利用することができる。
マルチクラスの表と画像のデータセットに対する実証的な評価は、Deep-MCDDがOODサンプルを識別する上で、他の競合と同等の分類精度を示しながら、最高の性能を発揮することを示す。
関連論文リスト
- Distribution-Aware Robust Learning from Long-Tailed Data with Noisy Labels [8.14255560923536]
実世界のデータは、しばしば長い尾の分布とラベルノイズを示し、一般化性能を著しく低下させる。
近年の研究では,各クラス内の高信頼度サンプルに基づいて,各クラスのセントロイドを推定するノイズの多いサンプル選択手法に焦点が当てられている。
そこで我々は,分散型サンプル選択・コントラスト学習(DaSC)を提案し,拡張型セントロイドを生成する。
論文 参考訳(メタデータ) (2024-07-23T19:06:15Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Toward a Realistic Benchmark for Out-of-Distribution Detection [3.8038269045375515]
我々は ImageNet と Places365 に基づく OOD 検出のための総合ベンチマークを導入する。
様々な特性を持つベンチマークを生成するために、どのクラスを配布中と考えるべきかを決定するために、いくつかのテクニックが使える。
論文 参考訳(メタデータ) (2024-04-16T11:29:43Z) - Enhancing Out-of-Distribution Detection with Multitesting-based Layer-wise Feature Fusion [11.689517005768046]
アウト・オブ・ディストリビューション(Out-of-distriion)サンプルは、トレーニング分布と比較して、局所的またはグローバルな特徴の変化を示す可能性がある。
本稿では,新しいフレームワーク,Multitesting-based Layer-wise Out-of-Distribution (OOD) を提案する。
本手法は, ベースライン法と比較して, 分布外検出の性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-03-16T04:35:04Z) - Nearest Neighbor Guidance for Out-of-Distribution Detection [18.851275688720108]
そこで本研究では,最寄りのNearest Neighbor Guidance (NNGuide) を用いて,オフ・オブ・ディストリビューション(OOD) サンプルの検出を行う。
NNGuideは、分類器ベースのスコアのきめ細かい機能を維持しながら、OODサンプルの過信を低減する。
この結果から,NNGuideはベース検出スコアを大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-26T12:40:35Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。