論文の概要: Few-Shot Anomaly Detection with Adversarial Loss for Robust Feature
Representations
- arxiv url: http://arxiv.org/abs/2312.03005v1
- Date: Mon, 4 Dec 2023 09:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:39:01.492053
- Title: Few-Shot Anomaly Detection with Adversarial Loss for Robust Feature
Representations
- Title(参考訳): ロバスト特徴表現に対する対向損失を用いたFew-Shot異常検出
- Authors: Jae Young Lee, Wonjun Lee, Jaehyun Choi, Yongkwi Lee, Young Seog Yoon
- Abstract要約: 異常検出は、データセット内の通常のパターンや分布から逸脱したデータポイントを特定することを目的とした、重要で困難なタスクである。
ワンクラス・ワン・モデル手法を用いて様々な手法が提案されているが、これらの手法はメモリ不足や訓練に十分なデータを必要とするといった現実的な問題に直面していることが多い。
本稿では,より堅牢で一般化された特徴表現を得るために,対向訓練損失を統合する数発の異常検出手法を提案する。
- 参考スコア(独自算出の注目度): 8.915958745269442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anomaly detection is a critical and challenging task that aims to identify
data points deviating from normal patterns and distributions within a dataset.
Various methods have been proposed using a one-class-one-model approach, but
these techniques often face practical problems such as memory inefficiency and
the requirement of sufficient data for training. In particular, few-shot
anomaly detection presents significant challenges in industrial applications,
where limited samples are available before mass production. In this paper, we
propose a few-shot anomaly detection method that integrates adversarial
training loss to obtain more robust and generalized feature representations. We
utilize the adversarial loss previously employed in domain adaptation to align
feature distributions between source and target domains, to enhance feature
robustness and generalization in few-shot anomaly detection tasks. We
hypothesize that adversarial loss is effective when applied to features that
should have similar characteristics, such as those from the same layer in a
Siamese network's parallel branches or input-output pairs of
reconstruction-based methods. Experimental results demonstrate that the
proposed method generally achieves better performance when utilizing the
adversarial loss.
- Abstract(参考訳): 異常検出は、データセット内の通常のパターンや分布から逸脱したデータポイントを特定することを目的とした、重要で困難なタスクである。
1-class-one-modelアプローチを用いて様々な手法が提案されているが、これらの手法はメモリの非効率やトレーニングに十分なデータを必要とするといった実用的な問題に直面することが多い。
特に、数発の異常検出は、大量生産前に限られたサンプルが利用できる産業用途において大きな課題となる。
本稿では,よりロバストで一般化された特徴表現を得るために,逆訓練損失を統合した数発異常検出手法を提案する。
我々は,これまでドメイン適応に用いられてきた逆方向の損失を利用して,ソース領域とターゲット領域間の特徴分布を整列させ,特徴の堅牢性や一般化を向上する。
我々は、シームズネットワークの並列ブランチの同一層や、再構成方式の入出力ペアなど、類似した特徴を持つ機能に適用した場合、対向損失が有効であると仮定する。
実験結果から, 提案手法は, 対向損失を利用した場合, 性能が向上することが示された。
関連論文リスト
- Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Self-Supervised Graph Transformer for Deepfake Detection [1.8133635752982105]
ディープフェイク検出手法は、与えられたデータセット内の偽造を認識できる有望な結果を示している。
ディープフェイク検出システムは、一般的な検出性能を保証するために、偽造タイプ、外観、品質に欠かせないままでいなければならない。
本研究では、自己教師付き事前学習モデルを利用して、例外的な一般化能力を実現するディープフェイク検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-27T17:22:41Z) - GIT: Detecting Uncertainty, Out-Of-Distribution and Adversarial Samples
using Gradients and Invariance Transformations [77.34726150561087]
本稿では,ディープニューラルネットワークにおける一般化誤差検出のための総合的アプローチを提案する。
GITは勾配情報と不変変換の利用を組み合わせる。
本実験は,各種ネットワークアーキテクチャの最先端技術と比較して,GITの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-05T22:04:38Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Anomaly Detection with Ensemble of Encoder and Decoder [2.8199078343161266]
電力網における異常検出は、電力系統に対するサイバー攻撃による異常を検出し、識別することを目的としている。
本稿では,複数のエンコーダとデコーダを用いて正規サンプルのデータ分布をモデル化し,新しい異常検出手法を提案する。
ネットワーク侵入と電力系統データセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-11T15:49:29Z) - Multivariate Time Series Anomaly Detection with Few Positive Samples [12.256288627540536]
この実践的状況のニーズに対処する2つの方法を紹介する。
提案手法は, 自己回帰(AR)モデルを用いた正規動作の代表的な学習に有効である。
文献からのアプローチと比較して,効果的な性能を示す。
論文 参考訳(メタデータ) (2022-07-02T00:58:52Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Stabilizing Adversarially Learned One-Class Novelty Detection Using
Pseudo Anomalies [22.48845887819345]
異常スコアは、逆学習されたジェネレータの再構成損失と/または識別器の分類損失を用いて定式化されている。
トレーニングデータにおける異常な例の有効性は、そのようなネットワークの最適化を困難にしている。
本研究では,判別器の基本的役割を,実データと偽データとの識別から,良質データと悪質データとの区別に転換することで,そのような不安定性を克服する堅牢な異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-25T15:37:52Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。