論文の概要: Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2308.10155v1
- Date: Sun, 20 Aug 2023 04:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 17:29:48.097214
- Title: Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection
- Title(参考訳): 階層的拡張を用いた一側的コントラスト学習による異常検出
- Authors: Guodong Wang, Yunhong Wang, Jie Qin, Dongming Zhang, Xiuguo Bao, Di
Huang
- Abstract要約: 階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
- 参考スコア(独自算出の注目度): 64.50126371767476
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Anomaly detection (AD), aiming to find samples that deviate from the training
distribution, is essential in safety-critical applications. Though recent
self-supervised learning based attempts achieve promising results by creating
virtual outliers, their training objectives are less faithful to AD which
requires a concentrated inlier distribution as well as a dispersive outlier
distribution. In this paper, we propose Unilaterally Aggregated Contrastive
Learning with Hierarchical Augmentation (UniCon-HA), taking into account both
the requirements above. Specifically, we explicitly encourage the concentration
of inliers and the dispersion of virtual outliers via supervised and
unsupervised contrastive losses, respectively. Considering that standard
contrastive data augmentation for generating positive views may induce
outliers, we additionally introduce a soft mechanism to re-weight each
augmented inlier according to its deviation from the inlier distribution, to
ensure a purified concentration. Moreover, to prompt a higher concentration,
inspired by curriculum learning, we adopt an easy-to-hard hierarchical
augmentation strategy and perform contrastive aggregation at different depths
of the network based on the strengths of data augmentation. Our method is
evaluated under three AD settings including unlabeled one-class, unlabeled
multi-class, and labeled multi-class, demonstrating its consistent superiority
over other competitors.
- Abstract(参考訳): トレーニング分布から逸脱するサンプルを見つけることを目的とした異常検出(AD)は、安全クリティカルなアプリケーションに不可欠である。
近年の自己教師型学習に基づく試みは,仮想外れ値の生成によって有望な結果が得られたが,そのトレーニング目的は,集中した不利値分布と分散外れ値分布を必要とするADに忠実でない。
本稿では,上述の要件を考慮に入れた階層的強化(unicon-ha)を用いた,一方的なコントラスト学習を提案する。
具体的には,教師付きコントラスト損失と教師なしコントラスト損失により,イナリアの集中と仮想外れ値の分散を明示的に推奨する。
正の視点を生成するための標準の対比データ拡張が外れ値を引き起こす可能性があることを考慮し、さらに、拡張したイリアーをイリアー分布からのずれに応じて再重み付けし、純度の高い濃度を確保するためのソフトメカニズムを導入する。
さらに、カリキュラム学習に触発された高集中化を促すために、難解な階層的拡張戦略を採用し、データ拡張の強みに基づいて、ネットワークの異なる深さでコントラスト的集約を行う。
提案手法は,ラベルなしのワンクラス,ラベルなしのマルチクラス,ラベル付きマルチクラスを含む3つの広告設定の下で評価され,他の競合に対して一貫した優位性を示す。
関連論文リスト
- Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Generative multitask learning mitigates target-causing confounding [61.21582323566118]
マルチタスク学習のための因果表現学習のためのシンプルでスケーラブルなアプローチを提案する。
改善は、目標を狙うが入力はしない、観測されていない共同ファウンダーを緩和することによる。
人の属性とタスクノミーのデータセットに対する我々の結果は、事前の確率シフトに対するロバストネスの概念的改善を反映している。
論文 参考訳(メタデータ) (2022-02-08T20:42:14Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。