論文の概要: Dense anomaly detection by robust learning on synthetic negative data
- arxiv url: http://arxiv.org/abs/2112.12833v1
- Date: Thu, 23 Dec 2021 20:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:04:27.866514
- Title: Dense anomaly detection by robust learning on synthetic negative data
- Title(参考訳): 合成負データを用いたロバスト学習による高密度異常検出
- Authors: Matej Grci\'c, Petra Bevandi\'c, Sini\v{s}a \v{S}egvi\'c
- Abstract要約: 我々は、高い不整合率と一様判別予測を同時に達成する合成負のパッチを開発する。
また,学習や推論を通じて一貫した適用が可能な情報理論の原理に従って異常を検出することを提案する。
- 参考スコア(独自算出の注目度): 1.654967376694554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Standard machine learning is unable to accommodate inputs which do not belong
to the training distribution. The resulting models often give rise to confident
incorrect predictions which may lead to devastating consequences. This problem
is especially demanding in the context of dense prediction since input images
may be partially anomalous. Previous work has addressed dense anomaly detection
by discriminative training on mixed-content images. We extend this approach
with synthetic negative patches which simultaneously achieve high inlier
likelihood and uniform discriminative prediction. We generate synthetic
negatives with normalizing flows due to their outstanding distribution coverage
and capability to generate samples at different resolutions. We also propose to
detect anomalies according to a principled information-theoretic criterion
which can be consistently applied through training and inference. The resulting
models set the new state of the art on standard benchmarks and datasets in
spite of minimal computational overhead and refraining from auxiliary negative
data.
- Abstract(参考訳): 標準機械学習は、トレーニング分布に属さない入力を許容できない。
結果のモデルはしばしば、破壊的な結果をもたらす可能性のある確実な誤った予測を引き起こす。
この問題は、入力画像が部分的に異常である可能性があるため、密度予測の文脈で特に要求される。
これまでの研究は、混合コンテンツ画像の識別訓練による濃密な異常検出に対処してきた。
我々はこのアプローチを合成負のパッチで拡張し,高い確率的確率と均一な判別予測を同時に達成する。
我々は,その分布範囲と異なる解像度でサンプルを生成する能力から,流れの正規化を伴う合成陰性を生成する。
また,学習や推論を通じて一貫して適用できる情報理論の原理に従って異常を検出することを提案する。
結果として得られたモデルは、計算オーバーヘッドを最小限に抑えつつも、標準ベンチマークとデータセットの新たな技術を確立し、補助的な負のデータを避けた。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Towards Motion Forecasting with Real-World Perception Inputs: Are
End-to-End Approaches Competitive? [93.10694819127608]
実世界の知覚入力を用いた予測手法の統一評価パイプラインを提案する。
我々の詳細な調査では、キュレートされたデータから知覚ベースのデータへ移行する際の大きなパフォーマンスギャップが明らかになりました。
論文 参考訳(メタデータ) (2023-06-15T17:03:14Z) - Lossy Compression for Robust Unsupervised Time-Series Anomaly Detection [4.873362301533825]
本稿では,異常検出のためのLossy Causal Temporal Convolutional Neural Network Autoencoderを提案する。
我々のフレームワークは, 速度歪み損失とエントロピーボトルネックを用いて, タスクの圧縮潜在表現を学習する。
論文 参考訳(メタデータ) (2022-12-05T14:29:16Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Autoencoder Attractors for Uncertainty Estimation [13.618797548020462]
本稿では,オートエンコーダモデルに基づく不確実性推定手法を提案する。
提案手法は,車室内における占有者分類の産業的応用だけでなく,いくつかのデータセットの組み合わせについても検討した。
論文 参考訳(メタデータ) (2022-04-01T12:10:06Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。