論文の概要: Do We Really Need to Learn Representations from In-domain Data for
Outlier Detection?
- arxiv url: http://arxiv.org/abs/2105.09270v1
- Date: Wed, 19 May 2021 17:30:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:57:44.031286
- Title: Do We Really Need to Learn Representations from In-domain Data for
Outlier Detection?
- Title(参考訳): 外乱検出のためのドメイン内データから表現を学ぶ必要があるか?
- Authors: Zhisheng Xiao, Qing Yan, Yali Amit
- Abstract要約: 2段階のフレームワークに基づく手法は、このタスクで最先端のパフォーマンスを達成する。
我々は,各外乱検出タスクに対して,異なる表現を訓練するコストが高いことを避ける可能性を探る。
実験では, 従来の2段階法と比較して, 様々な外乱検出ベンチマークにおいて, 競争力や性能が向上することを示した。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised outlier detection, which predicts if a test sample is an outlier
or not using only the information from unlabelled inlier data, is an important
but challenging task. Recently, methods based on the two-stage framework
achieve state-of-the-art performance on this task. The framework leverages
self-supervised representation learning algorithms to train a feature extractor
on inlier data, and applies a simple outlier detector in the feature space. In
this paper, we explore the possibility of avoiding the high cost of training a
distinct representation for each outlier detection task, and instead using a
single pre-trained network as the universal feature extractor regardless of the
source of in-domain data. In particular, we replace the task-specific feature
extractor by one network pre-trained on ImageNet with a self-supervised loss.
In experiments, we demonstrate competitive or better performance on a variety
of outlier detection benchmarks compared with previous two-stage methods,
suggesting that learning representations from in-domain data may be unnecessary
for outlier detection.
- Abstract(参考訳): 教師なしの異常値検出(unsupervised outlier detection)は、テストサンプルが異常値であるかどうかを予測し、不正な不利値データからの情報のみを使用する。
近年,この2段階フレームワークに基づく手法が最先端のパフォーマンスを実現している。
このフレームワークは、自己教師付き表現学習アルゴリズムを利用して、異常データに特徴抽出器をトレーニングし、特徴空間に単純な外れ値検出器を適用する。
本稿では,外乱検出タスク毎に異なる表現をトレーニングするコストを高いコストで回避し,その代わりに,ドメイン内のデータソースに関わらず,単一の事前学習ネットワークをユニバーサルな特徴抽出器として使用する可能性を検討する。
特に、imagenetで事前トレーニングされた1つのネットワークでタスク固有の特徴抽出器を、自己教師付き損失に置き換える。
実験では,従来の2段階法と比較して,様々な外乱検出ベンチマークの競合性や性能を実証し,外乱検出にはドメイン内データからの学習表現が不要である可能性が示唆された。
関連論文リスト
- Unsupervised Event Outlier Detection in Continuous Time [4.375463200687156]
我々は、我々の知る限り、異常事象を検出するための最初の教師なし外乱検出手法を開発した。
我々は、実際のデータから修正されたデータを識別する'ディスクリミネータ'を用いて、データの異常値を補正する'ジェネレータ'を訓練する。
実験結果から,本手法は最先端手法よりも高精度にイベント異常を検出できることが示唆された。
論文 参考訳(メタデータ) (2024-11-25T14:29:39Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - Meta-Learning for Unsupervised Outlier Detection with Optimal Transport [4.035753155957698]
そこで本稿では,従来のデータセットからのメタラーニングに基づく異常検出の自動化手法を提案する。
特に最適なトランスポートを活用して、最も類似した分布を持つデータセットを見つけ、そのデータ分散に最も適することが証明された外れ値検出技術を適用します。
論文 参考訳(メタデータ) (2022-11-01T10:36:48Z) - Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval [73.3152060987961]
現在の教師付きクロスドメイン画像検索法は優れた性能が得られる。
データ収集とラベリングのコストは、実際のアプリケーションにおける実践的なデプロイにおいて、難易度の高い障壁を課します。
本稿では,クラス意味認識機能抽出を支援するために,クラスタ単位のコントラスト学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-20T07:52:14Z) - CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation [60.28924281991539]
本稿では,タスク固有性バランスを向上するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の顕著なパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2021-12-09T14:54:59Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Unsupervised Outlier Detection using Memory and Contrastive Learning [53.77693158251706]
特徴空間における外乱検出は,外乱検出から外乱検出までの特徴距離を測定することで行うことができると考えている。
本稿では,メモリモジュールとコントラスト学習モジュールを用いたMCODフレームワークを提案する。
提案したMCODは高い性能を達成し,9つの最先端手法より優れる。
論文 参考訳(メタデータ) (2021-07-27T07:35:42Z) - Out-of-Scope Intent Detection with Self-Supervision and Discriminative
Training [20.242645823965145]
タスク指向対話システムにおいて、スコープ外インテント検出は実用上重要である。
本稿では,テストシナリオをシミュレートして,スコープ外インテント分類器をエンドツーエンドに学習する手法を提案する。
提案手法を4つのベンチマーク・ダイアログ・データセット上で広範囲に評価し,最先端のアプローチに対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-16T08:17:18Z) - Homophily Outlier Detection in Non-IID Categorical Data [43.51919113927003]
この研究は、新しい外れ値検出フレームワークとその2つのインスタンスを導入し、カテゴリデータの外れ値を特定する。
まず、分布に敏感な外部因子とその相互依存性を値値グラフベースの表現に定義し、組み込む。
学習した値の外れ度は、直接の外れ値検出または特徴選択の除外を可能にする。
論文 参考訳(メタデータ) (2021-03-21T23:29:33Z) - Evolving Losses for Unsupervised Video Representation Learning [91.2683362199263]
大規模未ラベル映像データから映像表現を学習する新しい手法を提案する。
提案した教師なし表現学習では,単一のRGBネットワークが実現し,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-26T16:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。