論文の概要: No Free Lunch: The Hazards of Over-Expressive Representations in Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2306.07284v1
- Date: Mon, 12 Jun 2023 17:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 13:24:38.798537
- Title: No Free Lunch: The Hazards of Over-Expressive Representations in Anomaly
Detection
- Title(参考訳): No Free Lunch:異常検出における過剰表現の危険性
- Authors: Tal Reiss, Niv Cohen, Yedid Hoshen
- Abstract要約: 現状の表現はしばしば過剰な表現性に悩まされ、多くの種類の異常を検出できないことを示す。
本研究は,この過度表現率による画像異常検出の実態を実証するものである。
- 参考スコア(独自算出の注目度): 35.128547933798274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anomaly detection methods, powered by deep learning, have recently been
making significant progress, mostly due to improved representations. It is
tempting to hypothesize that anomaly detection can improve indefinitely by
increasing the scale of our networks, making their representations more
expressive. In this paper, we provide theoretical and empirical evidence to the
contrary. In fact, we empirically show cases where very expressive
representations fail to detect even simple anomalies when evaluated beyond the
well-studied object-centric datasets. To investigate this phenomenon, we begin
by introducing a novel theoretical toy model for anomaly detection performance.
The model uncovers a fundamental trade-off between representation sufficiency
and over-expressivity. It provides evidence for a no-free-lunch theorem in
anomaly detection stating that increasing representation expressivity will
eventually result in performance degradation. Instead, guidance must be
provided to focus the representation on the attributes relevant to the
anomalies of interest. We conduct an extensive empirical investigation
demonstrating that state-of-the-art representations often suffer from
over-expressivity, failing to detect many types of anomalies. Our investigation
demonstrates how this over-expressivity impairs image anomaly detection in
practical settings. We conclude with future directions for mitigating this
issue.
- Abstract(参考訳): ディープラーニングを利用した異常検出手法は, 主に表現の改善により, 最近大きな進歩を遂げている。
ネットワークの規模を拡大することで異常検出が無限に改善し、表現がより表現力のあるものになると仮定する傾向にある。
本稿では,その逆の理論的および実証的な証拠を提供する。
実際、よく研究された対象中心のデータセットを超えて評価すると、非常に表現力のある表現が単純な異常も検出できないケースを実証的に示す。
この現象を調べるために,まず,異常検出性能のための新しい理論玩具モデルを導入する。
このモデルは表現満足度と過剰表現率の基本的なトレードオフを明らかにする。
これは、表現表現率の増加が最終的に性能劣化をもたらすという異常検出におけるノーランチ定理の証拠を提供する。
代わりに、関心の異常に関連する属性の表現に集中するためのガイダンスを提供する必要がある。
我々は、最先端の表現が過剰な表現に苦しむことが多く、多くの種類の異常を検知できないことを証明する広範な実証調査を行う。
本研究は,この過度表現率による画像異常検出の実態を実証するものである。
我々はこの問題を緩和するための今後の方向で結論づける。
関連論文リスト
- Class-wise Activation Unravelling the Engima of Deep Double Descent [0.0]
二重降下は、機械学習領域内の反直観的な側面を示す。
本研究では,二重降下現象を再考し,その発生状況について考察した。
論文 参考訳(メタデータ) (2024-05-13T12:07:48Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Updated version: A Video Anomaly Detection Framework based on
Appearance-Motion Semantics Representation Consistency [2.395616571632115]
本稿では,出現動作のセマンティックス一貫性表現の枠組みを提案する。
この2ストリーム構造は、通常のサンプルの外観および動き情報表現を符号化するように設計されている。
特徴セマンティクスの整合性を高めるために、一貫性の低い異常を識別できるように、新しい整合性損失を提案する。
論文 参考訳(メタデータ) (2023-03-09T08:28:34Z) - Anomaly Detection Requires Better Representations [28.611440466398715]
異常検出は、科学と産業の中心的な課題である異常な現象を特定することを目指している。
自己教師付き表現学習の最近の進歩は、異常検出の改善を促している。
論文 参考訳(メタデータ) (2022-10-19T17:59:32Z) - The Familiarity Hypothesis: Explaining the Behavior of Deep Open Set
Methods [86.39044549664189]
特徴ベクトルデータに対する異常検出アルゴリズムは異常を外れ値として識別するが、外れ値検出はディープラーニングではうまく機能しない。
本論文は, 新規性の有無ではなく, 慣れ親しんだ特徴の欠如を検知しているため, これらの手法が成功するというFamiliarity仮説を提案する。
本論文は,親しみやすさの検出が表現学習の必然的な結果であるかどうかを論じる。
論文 参考訳(メタデータ) (2022-03-04T18:32:58Z) - Explainable Deep Few-shot Anomaly Detection with Deviation Networks [123.46611927225963]
本稿では,弱い教師付き異常検出フレームワークを導入し,検出モデルを訓練する。
提案手法は,ラベル付き異常と事前確率を活用することにより,識別正規性を学習する。
我々のモデルはサンプル効率が高く頑健であり、クローズドセットとオープンセットの両方の設定において最先端の競合手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2021-08-01T14:33:17Z) - Towards Fair Deep Anomaly Detection [24.237000220172906]
我々は,fair anomaly detectionアプローチ(deep fair svdd)のための新しいアーキテクチャを提案する。
提案手法は,異常検出性能の低下を最小限に抑えることで不公平を解消できることを示す。
論文 参考訳(メタデータ) (2020-12-29T22:34:45Z) - Manifolds for Unsupervised Visual Anomaly Detection [79.22051549519989]
トレーニングで必ずしも異常に遭遇しない教師なしの学習方法は、非常に有用です。
ジャイロプレーン層を用いた立体投影による超球形変分オートエンコーダ(VAE)を開発した。
工業用AIシナリオにおける実世界の実用性を実証し、精密製造および検査における視覚異常ベンチマークの最先端結果を示す。
論文 参考訳(メタデータ) (2020-06-19T20:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。