論文の概要: A Novel Data Augmentation Technique for Out-of-Distribution Sample
Detection using Compounded Corruptions
- arxiv url: http://arxiv.org/abs/2207.13916v1
- Date: Thu, 28 Jul 2022 07:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 11:59:24.578989
- Title: A Novel Data Augmentation Technique for Out-of-Distribution Sample
Detection using Compounded Corruptions
- Title(参考訳): 複合汚損を用いた分散サンプル検出のための新しいデータ拡張法
- Authors: Ramya S. Hebbalaguppe, Soumya Suvra Goshal, Jatin Prakash, Harshad
Khadilkar, Chetan Arora
- Abstract要約: CnCと呼ばれるOODデータ拡張のための新しい複合的破壊手法を提案する。
現在の最先端(SOTA)技術とは異なり、CnCはテスト時にバックプロパゲーションやアンサンブルを必要としない。
過去4年間の大規模なカンファレンスから得られた20の手法との比較から,CnCベースのデータ拡張によるトレーニングモデルの方がSOTAを著しく上回ることが示された。
- 参考スコア(独自算出の注目度): 7.8353348433211165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep neural network models are known to erroneously classify
out-of-distribution (OOD) test data into one of the in-distribution (ID)
training classes with high confidence. This can have disastrous consequences
for safety-critical applications. A popular mitigation strategy is to train a
separate classifier that can detect such OOD samples at the test time. In most
practical settings OOD examples are not known at the train time, and hence a
key question is: how to augment the ID data with synthetic OOD samples for
training such an OOD detector? In this paper, we propose a novel Compounded
Corruption technique for the OOD data augmentation termed CnC. One of the major
advantages of CnC is that it does not require any hold-out data apart from the
training set. Further, unlike current state-of-the-art (SOTA) techniques, CnC
does not require backpropagation or ensembling at the test time, making our
method much faster at inference. Our extensive comparison with 20 methods from
the major conferences in last 4 years show that a model trained using CnC based
data augmentation, significantly outperforms SOTA, both in terms of OOD
detection accuracy as well as inference time. We include a detailed post-hoc
analysis to investigate the reasons for the success of our method and identify
higher relative entropy and diversity of CnC samples as probable causes. We
also provide theoretical insights via a piece-wise decomposition analysis on a
two-dimensional dataset to reveal (visually and quantitatively) that our
approach leads to a tighter boundary around ID classes, leading to better
detection of OOD samples. Source code link: https://github.com/cnc-ood
- Abstract(参考訳): 最近のディープニューラルネットワークモデルは、不当に分散(ood)テストデータを、高い信頼性を持つ分散(id)トレーニングクラスに分類することが知られている。
これは安全クリティカルなアプリケーションにとって破滅的な結果をもたらす可能性がある。
一般的な緩和戦略は、テスト時にそのようなOODサンプルを検出できる別個の分類器をトレーニングすることである。
ほとんどの実践的な環境では、OODの例は列車時に知られておらず、重要な疑問は、どうやってOOD検出器を訓練するために合成OODサンプルでIDデータを増強するかである。
本稿では,CnCと呼ばれるOODデータ拡張のための新しい複合的破壊手法を提案する。
cncの主な利点の1つは、トレーニングセットとは別に保持データを必要としないことである。
さらに、現在の最先端(SOTA)技術とは異なり、CnCはテスト時にバックプロパゲーションやアンサンブルを必要としないため、メソッドの推論がはるかに高速になる。
過去4年間の大規模カンファレンスから得られた20の手法との比較から,CnCに基づくデータ拡張を用いたトレーニングモデルでは,OOD検出精度と推定時間の両方において,SOTAよりも有意に優れていた。
提案手法が成功した理由を詳細に分析し,CnC試料の相対エントロピーと多様性を潜在的原因として同定する。
また,2次元データセットの断片分解解析を通じて理論的知見を提供し,そのアプローチが,IDクラスを中心により厳密な境界を導き,OODサンプルのより優れた検出につながることを(視覚的かつ定量的に)明らかにした。
ソースコードリンク: https://github.com/cnc-ood
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - VOS: Learning What You Don't Know by Virtual Outlier Synthesis [23.67449949146439]
最近、ニューラルネットワークの安全なデプロイの重要性から、アウト・オブ・ディストリビューション(OOD)検出が注目されている。
従来のアプローチでは、モデル正則化に実際の外れ値データセットを頼っていた。
仮想外れ値の適応合成によるOOD検出のための新しいフレームワークであるVOSを提案する。
論文 参考訳(メタデータ) (2022-02-02T18:43:01Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。