論文の概要: End-to-End Augmentation Hyperparameter Tuning for Self-Supervised
Anomaly Detection
- arxiv url: http://arxiv.org/abs/2306.12033v1
- Date: Wed, 21 Jun 2023 05:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 14:46:02.611063
- Title: End-to-End Augmentation Hyperparameter Tuning for Self-Supervised
Anomaly Detection
- Title(参考訳): 自己監督型異常検出のためのエンドツーエンド拡張ハイパーパラメータチューニング
- Authors: Jaemin Yoo, Lingxiao Zhao, and Leman Akoglu
- Abstract要約: そこで我々はST-SSAD(Self-Tuning Self-Supervised Anomaly Detection)を導入する。
チューニングの強化は、現在のプラクティスよりも大きなパフォーマンス向上をもたらすことを示す。
- 参考スコア(独自算出の注目度): 21.97856757574274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised learning (SSL) has emerged as a promising paradigm that
presents self-generated supervisory signals to real-world problems, bypassing
the extensive manual labeling burden. SSL is especially attractive for
unsupervised tasks such as anomaly detection, where labeled anomalies are often
nonexistent and costly to obtain. While self-supervised anomaly detection
(SSAD) has seen a recent surge of interest, the literature has failed to treat
data augmentation as a hyperparameter. Meanwhile, recent works have reported
that the choice of augmentation has significant impact on detection
performance. In this paper, we introduce ST-SSAD (Self-Tuning Self-Supervised
Anomaly Detection), the first systematic approach to SSAD in regards to
rigorously tuning augmentation. To this end, our work presents two key
contributions. The first is a new unsupervised validation loss that quantifies
the alignment between the augmented training data and the (unlabeled) test
data. In principle we adopt transduction, quantifying the extent to which
augmentation mimics the true anomaly-generating mechanism, in contrast to
augmenting data with arbitrary pseudo anomalies without regard to test data.
Second, we present new differentiable augmentation functions, allowing data
augmentation hyperparameter(s) to be tuned end-to-end via our proposed
validation loss. Experiments on two testbeds with semantic class anomalies and
subtle industrial defects show that systematically tuning augmentation offers
significant performance gains over current practices.
- Abstract(参考訳): 自己教師あり学習(SSL)は、手作業によるラベル付けの負担を回避し、現実の問題に自己生成の監視信号を提示する、有望なパラダイムとして登場した。
SSLは異常検出のような教師なしのタスクには特に魅力的で、ラベル付き異常はしばしば存在しない。
自己監督型異常検出(SSAD)は近年注目されているが,データ増大をハイパーパラメータとして扱うことはできなかった。
一方,近年の研究では,増強の選択が検出性能に大きな影響を与えることが報告されている。
本稿では,ST-SSAD(Self-Tuning Self-Supervised Anomaly Detection)について述べる。
この目的のために、我々の研究は2つの重要な貢献をしている。
ひとつは、強化されたトレーニングデータと(ラベルなし)テストデータのアラインメントを定量化する、教師なし検証損失だ。
原理的には、テストデータによらず任意の擬似異常によるデータ拡張とは対照的に、増大が真の異常発生機構を模倣する程度を定量化する。
第2に,データ拡張ハイパーパラメータ(s)を,提案する検証損失によってエンドツーエンドに調整可能な,新たな微分可能な拡張関数を提案する。
セマンティッククラス異常と微妙な工業的欠陥を伴う2つのテストベッドの実験は、体系的な調整強化が現在のプラクティスよりも大きなパフォーマンス向上をもたらすことを示している。
関連論文リスト
- Multiple Descents in Unsupervised Learning: The Role of Noise, Domain Shift and Anomalies [14.399035468023161]
教師なし学習における二重の子孫の存在について検討するが、これはほとんど注目されず、まだ完全には理解されていない領域である。
我々は、合成データと実データを用いて、様々なアプリケーションに対してモデルワイド、エポックワイド、サンプルワイドの二重降下を識別する。
論文 参考訳(メタデータ) (2024-06-17T16:24:23Z) - End-To-End Self-tuning Self-supervised Time Series Anomaly Detection [32.746688248671084]
時系列異常検出(TSAD)は、環境センサ、産業タイプ、患者バイオマーカーなど、多くの応用を見出す。
TSADの2倍の課題は、様々な種類の時系列異常を検出できる汎用的で教師なしのモデルである。
TSAP for TSA "on autoPilot"を導入します。
論文 参考訳(メタデータ) (2024-04-03T16:57:26Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Generating and Reweighting Dense Contrastive Patterns for Unsupervised
Anomaly Detection [59.34318192698142]
我々は、先行のない異常発生パラダイムを導入し、GRADと呼ばれる革新的な教師なし異常検出フレームワークを開発した。
PatchDiffは、様々な種類の異常パターンを効果的に公開する。
MVTec ADとMVTec LOCOデータセットの両方の実験も、前述の観測をサポートする。
論文 参考訳(メタデータ) (2023-12-26T07:08:06Z) - RoSAS: Deep Semi-Supervised Anomaly Detection with
Contamination-Resilient Continuous Supervision [21.393509817509464]
本稿では, テクスト汚染耐性連続監視信号を考案した, 半教師付き異常検出手法を提案する。
当社のアプローチは、AUC-PRにおいて最先端の競合他社を20%-30%上回っている。
論文 参考訳(メタデータ) (2023-07-25T04:04:49Z) - DSV: An Alignment Validation Loss for Self-supervised Outlier Model
Selection [23.253175824487652]
自己教師付き学習(SSL)は、内部の監視信号を生成することで様々な問題を解決するのに有効であることが証明されている。
真のラベルを取得するための高いコストに直面している教師なしの異常検出は、SSLの大きな恩恵を受けることができる領域である。
DSV(Discordance and Separability Validation)は,有効拡張HPを用いた高性能検出モデルを選択するための教師なし検証損失である。
論文 参考訳(メタデータ) (2023-07-13T02:45:29Z) - Data Augmentation is a Hyperparameter: Cherry-picked Self-Supervision
for Unsupervised Anomaly Detection is Creating the Illusion of Success [30.409069707518466]
自己教師付き学習(SSL)は、現実の問題に対する監督的なシグナルを作成するための、有望な代替手段として登場した。
近年の研究では、この拡張のタイプが精度に重大な影響を与えていると報告されている。
この研究は、画像ベースのSSADをより大きなレンズの下に配置し、SSADにおけるデータ拡張の役割を調べることを目的としている。
論文 参考訳(メタデータ) (2022-08-16T13:09:25Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Anomaly Detection Based on Selection and Weighting in Latent Space [73.01328671569759]
SWADと呼ばれる新しい選択および重み付けに基づく異常検出フレームワークを提案する。
ベンチマークと実世界のデータセットによる実験は、SWADの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-03-08T10:56:38Z) - ESAD: End-to-end Deep Semi-supervised Anomaly Detection [85.81138474858197]
正規データと異常データの間のKL偏差を計測する新たな目的関数を提案する。
提案手法は,複数のベンチマークデータセットの最先端性能を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-09T08:16:35Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。