論文の概要: FewSOME: One-Class Few Shot Anomaly Detection with Siamese Networks
- arxiv url: http://arxiv.org/abs/2301.06957v4
- Date: Mon, 12 Jun 2023 22:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 17:53:30.675618
- Title: FewSOME: One-Class Few Shot Anomaly Detection with Siamese Networks
- Title(参考訳): fewsome: siamese networksによる1クラス少数のショット異常検出
- Authors: Niamh Belton, Misgina Tsighe Hagos, Aonghus Lawlor, Kathleen M. Curran
- Abstract要約: FewSOME (Few Shot anOMaly Detection) は深層一級異常検出アルゴリズムであり、異常を正確に検出できる。
FewSOMEは、Siamese Networksをベースとしたアーキテクチャで事前訓練されたウェイトによって支援されている。
我々の実験は、ベンチマークデータセット上でFewSOMEのパフォーマンスを最先端レベルで実証した。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent Anomaly Detection techniques have progressed the field considerably
but at the cost of increasingly complex training pipelines. Such techniques
require large amounts of training data, resulting in computationally expensive
algorithms that are unsuitable for settings where only a small amount of normal
samples are available for training. We propose 'Few Shot anOMaly detection'
(FewSOME), a deep One-Class Anomaly Detection algorithm with the ability to
accurately detect anomalies having trained on 'few' examples of the normal
class and no examples of the anomalous class. We describe FewSOME to be of low
complexity given its low data requirement and short training time. FewSOME is
aided by pretrained weights with an architecture based on Siamese Networks. By
means of an ablation study, we demonstrate how our proposed loss, 'Stop Loss',
improves the robustness of FewSOME. Our experiments demonstrate that FewSOME
performs at state-of-the-art level on benchmark datasets MNIST, CIFAR-10,
F-MNIST and MVTec AD while training on only 30 normal samples, a minute
fraction of the data that existing methods are trained on. Moreover, our
experiments show FewSOME to be robust to contaminated datasets. We also report
F1 score and balanced accuracy in addition to AUC as a benchmark for future
techniques to be compared against. Code available;
https://github.com/niamhbelton/FewSOME.
- Abstract(参考訳): 最近の異常検出技術はこの分野をかなり進歩させたが、ますます複雑な訓練パイプラインのコストが高まった。
このような技術は大量のトレーニングデータを必要とするため、計算コストのかかるアルゴリズムは、少数の正規サンプルしか使用できない設定には適さない。
そこで本研究では,通常の授業の「2つの」例で訓練した異常を正確に検出できる深層一級異常検出アルゴリズム「FewSOME(Few Shot anOMaly Detection)」を提案する。
FewSOMEは、データ要件が低く、トレーニング時間が短いため、複雑さが低いと説明します。
fewsomeは、シャムネットワークに基づくアーキテクチャで事前訓練された重み付けによって支援される。
アブレーション研究により,提案する損失,すなわち「損失を止める」が,少数のロバスト性を改善することを示す。
実験の結果,FewSOMEはベンチマークデータセットMNIST, CIFAR-10, F-MNIST, MVTec ADで, 通常の30のサンプルでのみトレーニングを行い, 既存の手法でトレーニングしたデータの1分の1しか処理できないことがわかった。
さらに, 汚染されたデータセットに対するロバスト性を示す実験を行った。
また,今後比較すべき手法のベンチマークとして,AUCに加えてF1スコアとバランスの取れた精度を報告する。
コードはhttps://github.com/niamhbelton/FewSOME。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Delving into Sample Loss Curve to Embrace Noisy and Imbalanced Data [17.7825114228313]
破損したラベルとクラス不均衡は、実際に収集されたトレーニングデータでよく見られる。
既存のアプローチは、サンプルの再重み付け戦略を採用することで、これらの問題を緩和します。
しかし、ラベルが破損したサンプルと、訓練データに一般的に共存する尾のクラスは偏りがあった。
論文 参考訳(メタデータ) (2021-12-30T09:20:07Z) - Deep Learning on a Data Diet: Finding Important Examples Early in
Training [35.746302913918484]
ビジョンデータセットでは、トレーニングの初期段階で重要な例を特定するために、単純なスコアを使用することができる。
グラディエントノルメッド(GraNd)と誤差L2-ノルム(EL2N)という2つのスコアを提案する。
論文 参考訳(メタデータ) (2021-07-15T02:12:20Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Identifying Training Stop Point with Noisy Labeled Data [0.0]
テスト精度(MOTA)に近いトレーニング停止点(TSP)を見つけるためのアルゴリズムを開発しています。
我々は,CIFAR-10,CIFAR-100,実世界の雑音データを用いて,アルゴリズム(AutoTSP)のロバスト性を検証した。
論文 参考訳(メタデータ) (2020-12-24T20:07:30Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。