論文の概要: Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data
- arxiv url: http://arxiv.org/abs/2112.12833v3
- Date: Mon, 31 Jul 2023 09:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 01:17:15.879387
- Title: Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data
- Title(参考訳): 合成負データを用いたロバスト学習による高密度分布検出
- Authors: Matej Grci\'c, Petra Bevandi\'c, Zoran Kalafati\'c, Sini\v{s}a
\v{S}egvi\'c
- Abstract要約: 道路走行シーンとリモートセンシング画像における分布外異常の検出方法を示す。
我々は,カバレッジ指向学習の目的と異なる解像度でサンプルを生成する能力により,共同で訓練された正規化フローを活用する。
結果として得られたモデルは、道路走行シーンとリモートセンシング画像におけるアウト・オブ・ディストリビューション検出のためのベンチマークに、新たな技術状況を設定した。
- 参考スコア(独自算出の注目度): 1.7474352892977458
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Standard machine learning is unable to accommodate inputs which do not belong
to the training distribution. The resulting models often give rise to confident
incorrect predictions which may lead to devastating consequences. This problem
is especially demanding in the context of dense prediction since input images
may be only partially anomalous. Previous work has addressed dense
out-of-distribution detection by discriminative training with respect to
off-the-shelf negative datasets. However, real negative data are unlikely to
cover all modes of the entire visual world. To this end, we extend this
approach by generating synthetic negative patches along the border of the
inlier manifold. We leverage a jointly trained normalizing flow due to
coverage-oriented learning objective and the capability to generate samples at
different resolutions. We detect anomalies according to a principled
information-theoretic criterion which can be consistently applied through
training and inference. The resulting models set the new state of the art on
benchmarks for out-of-distribution detection in road-driving scenes and remote
sensing imagery, in spite of minimal computational overhead.
- Abstract(参考訳): 標準機械学習は、トレーニング分布に属さない入力を許容できない。
結果のモデルはしばしば、破壊的な結果をもたらす可能性のある確実な誤った予測を引き起こす。
この問題は、入力画像が部分的に異常である可能性があるため、密度予測の文脈で特に要求される。
従来の研究では、既成の負のデータセットに対する識別訓練による密集した分散検出に取り組んできた。
しかし、真の負のデータは、視覚世界のあらゆるモードをカバーすることはありそうにない。
この目的のために、我々はこのアプローチを拡張して、慣性多様体の境界に沿って合成負のパッチを生成する。
カバレッジ指向学習目標と異なる解像度でサンプルを生成する能力によって,共同でトレーニングされた正規化フローを活用する。
訓練や推論によって一貫して適用可能な原則的情報理論的基準に従って異常を検出する。
その結果得られたモデルは、計算オーバーヘッドが最小であるにもかかわらず、道路走行シーンやリモートセンシングイメージにおける分散検出のためのベンチマークに新たな最先端を設定した。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - A Generic Machine Learning Framework for Fully-Unsupervised Anomaly
Detection with Contaminated Data [0.0]
本稿では,ADタスクに対する汚染されたトレーニングデータの完全教師なし改善のためのフレームワークを提案する。
このフレームワークは汎用的であり、任意の残差ベースの機械学習モデルに適用することができる。
本研究は, 改質を伴わない汚染データを用いた学習において, ナイーブなアプローチよりも明らかに優れていることを示す。
論文 参考訳(メタデータ) (2023-08-25T12:47:59Z) - Towards Motion Forecasting with Real-World Perception Inputs: Are
End-to-End Approaches Competitive? [93.10694819127608]
実世界の知覚入力を用いた予測手法の統一評価パイプラインを提案する。
我々の詳細な調査では、キュレートされたデータから知覚ベースのデータへ移行する際の大きなパフォーマンスギャップが明らかになりました。
論文 参考訳(メタデータ) (2023-06-15T17:03:14Z) - Lossy Compression for Robust Unsupervised Time-Series Anomaly Detection [4.873362301533825]
本稿では,異常検出のためのLossy Causal Temporal Convolutional Neural Network Autoencoderを提案する。
我々のフレームワークは, 速度歪み損失とエントロピーボトルネックを用いて, タスクの圧縮潜在表現を学習する。
論文 参考訳(メタデータ) (2022-12-05T14:29:16Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Autoencoder Attractors for Uncertainty Estimation [13.618797548020462]
本稿では,オートエンコーダモデルに基づく不確実性推定手法を提案する。
提案手法は,車室内における占有者分類の産業的応用だけでなく,いくつかのデータセットの組み合わせについても検討した。
論文 参考訳(メタデータ) (2022-04-01T12:10:06Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。