論文の概要: How Low Can You Go? Surfacing Prototypical In-Distribution Samples for
Unsupervised Anomaly Detection
- arxiv url: http://arxiv.org/abs/2312.03804v1
- Date: Wed, 6 Dec 2023 15:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 17:29:41.254128
- Title: How Low Can You Go? Surfacing Prototypical In-Distribution Samples for
Unsupervised Anomaly Detection
- Title(参考訳): どれくらい低いのか?
教師なし異常検出のための非定型的分布サンプル
- Authors: Felix Meissen, Johannes Getzner, Alexander Ziller, Georgios Kaissis,
Daniel Rueckert
- Abstract要約: 教師なし異常検出(UAD)は、ラベルなしの配布データのみをトレーニングすることで、大規模なラベル付け作業を軽減する。
ごく少数のトレーニングサンプルを使用することで、トレーニングデータセット全体のトレーニングと比較して、すでに一致し、場合によっては異常検出も改善できることが示されています。
- 参考スコア(独自算出の注目度): 56.06401423880554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised anomaly detection (UAD) alleviates large labeling efforts by
training exclusively on unlabeled in-distribution data and detecting outliers
as anomalies. Generally, the assumption prevails that large training datasets
allow the training of higher-performing UAD models. However, in this work, we
show that using only very few training samples can already match - and in some
cases even improve - anomaly detection compared to training with the whole
training dataset. We propose three methods to identify prototypical samples
from a large dataset of in-distribution samples. We demonstrate that by
training with a subset of just ten such samples, we achieve an area under the
receiver operating characteristics curve (AUROC) of $96.37 \%$ on CIFAR10,
$92.59 \%$ on CIFAR100, $95.37 \%$ on MNIST, $95.38 \%$ on Fashion-MNIST,
$96.37 \%$ on MVTec-AD, $98.81 \%$ on BraTS, and $81.95 \%$ on RSNA pneumonia
detection, even exceeding the performance of full training in $25/67$ classes
we tested. Additionally, we show that the prototypical in-distribution samples
identified by our proposed methods translate well to different models and other
datasets and that using their characteristics as guidance allows for successful
manual selection of small subsets of high-performing samples. Our code is
available at https://anonymous.4open.science/r/uad_prototypical_samples/
- Abstract(参考訳): 教師なし異常検出(unsupervised anomaly detection, uad)はラベルなしの分布データのみをトレーニングし、異常値を検出することで、大きなラベル付け作業を軽減している。
一般的に、大きなトレーニングデータセットが高パフォーマンスなuadモデルのトレーニングを可能にするという仮定が通用する。
しかし、本研究では、トレーニングデータセット全体のトレーニングと比較して、非常に少ないトレーニングサンプルしか使用できないこと、場合によっては異常検出を改善できることが示されている。
本研究では,分布サンプルの大規模データセットから原型標本を同定する3つの手法を提案する。
このようなサンプルを10個に限定してトレーニングすることで、cifar10で96.37ドル、cifar100で95.9ドル、mnistで95.37ドル、ファッションmnistで95.38ドル、mvtec-adで96.37ドル、bratsで98.81ドル、rsna肺炎検出で81.95ドル、テストした25/67ドルのクラスでフルトレーニングの成績を上回っても、受信者の動作特性曲線(auroc)の下での領域が達成できることを実証した。
さらに,提案手法によって同定された原型内分布サンプルは,異なるモデルや他のデータセットによく翻訳され,その特徴をガイダンスとして利用することで,高性能サンプルの小さなサブセットを手作業で選択できることを示す。
私たちのコードはhttps://anonymous.4open.science/r/uad_prototypical_samples/で利用可能です。
関連論文リスト
- Enhancing Sample Selection by Cutting Mislabeled Easy Examples [62.13094877228772]
トレーニングプロセスの初期段階において,モデルによって正しく予測された誤ラベル例は,特にモデル性能に有害であることを示す。
モデルの後続のトレーニング状態を利用して,早期に同定された自信あるサブセットを再選択するアーリーカットを提案する。
論文 参考訳(メタデータ) (2025-02-12T09:12:45Z) - DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Semi-Supervised Learning for hyperspectral images by non parametrically
predicting view assignment [25.198550162904713]
ハイパースペクトル画像(HSI)分類は、画像中のスペクトル情報が高いため、現在、多くの勢いを増している。
近年,ラベル付きサンプルを最小限に抑えたディープラーニングモデルを効果的に訓練するために,ラベル付きサンプルも自己教師付きおよび半教師付き設定で活用されている。
本研究では,半教師付き学習の概念を利用して,モデルの識別的自己教師型事前学習を支援する。
論文 参考訳(メタデータ) (2023-06-19T14:13:56Z) - POODLE: Improving Few-shot Learning via Penalizing Out-of-Distribution
Samples [19.311470287767385]
そこで本研究では,対象クラス外からのラベル付きサンプルの配布外サンプルを用いて,数発の学習を改善することを提案する。
提案手法は, 実装が簡単で, 特徴抽出器に非依存であり, 事前学習に要する追加コストを伴わず軽量であり, インダクティブ設定とトランスダクティブ設定の両方に適用可能である。
論文 参考訳(メタデータ) (2022-06-08T18:59:21Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。