論文の概要: Dense anomaly detection by robust learning on synthetic negative data
- arxiv url: http://arxiv.org/abs/2112.12833v1
- Date: Thu, 23 Dec 2021 20:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:04:27.866514
- Title: Dense anomaly detection by robust learning on synthetic negative data
- Title(参考訳): 合成負データを用いたロバスト学習による高密度異常検出
- Authors: Matej Grci\'c, Petra Bevandi\'c, Sini\v{s}a \v{S}egvi\'c
- Abstract要約: 我々は、高い不整合率と一様判別予測を同時に達成する合成負のパッチを開発する。
また,学習や推論を通じて一貫した適用が可能な情報理論の原理に従って異常を検出することを提案する。
- 参考スコア(独自算出の注目度): 1.654967376694554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Standard machine learning is unable to accommodate inputs which do not belong
to the training distribution. The resulting models often give rise to confident
incorrect predictions which may lead to devastating consequences. This problem
is especially demanding in the context of dense prediction since input images
may be partially anomalous. Previous work has addressed dense anomaly detection
by discriminative training on mixed-content images. We extend this approach
with synthetic negative patches which simultaneously achieve high inlier
likelihood and uniform discriminative prediction. We generate synthetic
negatives with normalizing flows due to their outstanding distribution coverage
and capability to generate samples at different resolutions. We also propose to
detect anomalies according to a principled information-theoretic criterion
which can be consistently applied through training and inference. The resulting
models set the new state of the art on standard benchmarks and datasets in
spite of minimal computational overhead and refraining from auxiliary negative
data.
- Abstract(参考訳): 標準機械学習は、トレーニング分布に属さない入力を許容できない。
結果のモデルはしばしば、破壊的な結果をもたらす可能性のある確実な誤った予測を引き起こす。
この問題は、入力画像が部分的に異常である可能性があるため、密度予測の文脈で特に要求される。
これまでの研究は、混合コンテンツ画像の識別訓練による濃密な異常検出に対処してきた。
我々はこのアプローチを合成負のパッチで拡張し,高い確率的確率と均一な判別予測を同時に達成する。
我々は,その分布範囲と異なる解像度でサンプルを生成する能力から,流れの正規化を伴う合成陰性を生成する。
また,学習や推論を通じて一貫して適用できる情報理論の原理に従って異常を検出することを提案する。
結果として得られたモデルは、計算オーバーヘッドを最小限に抑えつつも、標準ベンチマークとデータセットの新たな技術を確立し、補助的な負のデータを避けた。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - A Generic Machine Learning Framework for Fully-Unsupervised Anomaly
Detection with Contaminated Data [0.0]
本稿では,ADタスクに対する汚染されたトレーニングデータの完全教師なし改善のためのフレームワークを提案する。
このフレームワークは汎用的であり、任意の残差ベースの機械学習モデルに適用することができる。
本研究は, 改質を伴わない汚染データを用いた学習において, ナイーブなアプローチよりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2023-08-25T12:47:59Z) - Towards Motion Forecasting with Real-World Perception Inputs: Are
End-to-End Approaches Competitive? [93.10694819127608]
実世界の知覚入力を用いた予測手法の統一評価パイプラインを提案する。
我々の詳細な調査では、キュレートされたデータから知覚ベースのデータへ移行する際の大きなパフォーマンスギャップが明らかになりました。
論文 参考訳(メタデータ) (2023-06-15T17:03:14Z) - Lossy Compression for Robust Unsupervised Time-Series Anomaly Detection [4.873362301533825]
本稿では,異常検出のためのLossy Causal Temporal Convolutional Neural Network Autoencoderを提案する。
我々のフレームワークは, 速度歪み損失とエントロピーボトルネックを用いて, タスクの圧縮潜在表現を学習する。
論文 参考訳(メタデータ) (2022-12-05T14:29:16Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Autoencoder Attractors for Uncertainty Estimation [13.618797548020462]
本稿では,オートエンコーダモデルに基づく不確実性推定手法を提案する。
提案手法は,車室内における占有者分類の産業的応用だけでなく,いくつかのデータセットの組み合わせについても検討した。
論文 参考訳(メタデータ) (2022-04-01T12:10:06Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。