論文の概要: Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection
- arxiv url: http://arxiv.org/abs/2302.02598v1
- Date: Mon, 6 Feb 2023 07:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 17:22:17.061869
- Title: Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection
- Title(参考訳): 教師なし分布検出のためのクラスタ認識コントラスト学習
- Authors: Menglong Chen, Xingtai Gui, Shicai Fan
- Abstract要約: 教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised out-of-distribution (OOD) Detection aims to separate the samples
falling outside the distribution of training data without label information.
Among numerous branches, contrastive learning has shown its excellent
capability of learning discriminative representation in OOD detection. However,
for its limited vision, merely focusing on instance-level relationship between
augmented samples, it lacks attention to the relationship between samples with
same semantics. Based on the classic contrastive learning, we propose
Cluster-aware Contrastive Learning (CCL) framework for unsupervised OOD
detection, which considers both instance-level and semantic-level information.
Specifically, we study a cooperation strategy of clustering and contrastive
learning to effectively extract the latent semantics and design a cluster-aware
contrastive loss function to enhance OOD discriminative ability. The loss
function can simultaneously pay attention to the global and local relationships
by treating both the cluster centers and the samples belonging to the same
cluster as positive samples. We conducted sufficient experiments to verify the
effectiveness of our framework and the model achieves significant improvement
on various image benchmarks.
- Abstract(参考訳): Unsupervised Out-of-Distribution (OOD) Detectionは、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
多くの分野において、対比学習は、OOD検出における識別的表現を学習する優れた能力を示している。
しかし、拡張されたサンプル間のインスタンスレベルの関係にのみ焦点を絞った限定的なビジョンでは、同じ意味を持つサンプル間の関係に注意が払われていない。
古典的コントラスト学習に基づいて,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
具体的には, 潜在意味を効果的に抽出し, ood識別能力を高めるためにクラスタ認識型コントラスト損失関数を設計するために, クラスタリングとコントラスト学習の協調戦略を検討する。
損失関数は、クラスタ中心と同じクラスタに属するサンプルの両方を正のサンプルとして扱うことにより、グローバルおよびローカルな関係に同時に注意を払うことができる。
提案手法の有効性を検証するための十分な実験を行い,様々な画像ベンチマークにおいて有意な改善が得られた。
関連論文リスト
- Cluster-guided Contrastive Graph Clustering Network [53.16233290797777]
クラスタ誘導コントラストグラフクラスタリングネットワーク(CCGC)を提案する。
我々は、兄弟のサブネットワーク間で重みが共有されない特別なシームズエンコーダを設計することにより、グラフの2つのビューを構築する。
意味的な負のサンプルペアを構築するために、異なる高信頼度クラスタの中心を負のサンプルとみなす。
論文 参考訳(メタデータ) (2023-01-03T13:42:38Z) - Understanding the properties and limitations of contrastive learning for
Out-of-Distribution detection [3.2689702143620143]
アウト・オブ・ディストリビューション(OOD)検出に対する一般的なアプローチは、コントラスト学習と呼ばれる自己教師付き学習技術に基づいている。
本稿では,OOD検出のための既存のコントラスト学習手法の有効性と限界を理解することを目的とする。
論文 参考訳(メタデータ) (2022-11-06T17:33:29Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Hybrid Dynamic Contrast and Probability Distillation for Unsupervised
Person Re-Id [109.1730454118532]
非監督的人物再識別(Re-Id)は、リードワールドビデオ監視システムにおける実践的応用により注目されている。
本稿では,ハイブリッド動的クラスタコントラストと確率蒸留アルゴリズムを提案する。
教師なしRe-Id問題を局所-言語的ダイナミックコントラスト学習と自己教師付き確率蒸留の枠組みに統合する。
論文 参考訳(メタデータ) (2021-09-29T02:56:45Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Modeling Discriminative Representations for Out-of-Domain Detection with
Supervised Contrastive Learning [16.77134235390429]
OOD検出の主な課題は、識別的セマンティックな特徴を学習することである。
クラス内分散を最小限に抑えるための教師付きコントラスト学習目標を提案する。
我々は,サンプルの擬似多様なビューを得るために,対角的拡張機構を用いる。
論文 参考訳(メタデータ) (2021-05-29T12:54:22Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - On Mutual Information in Contrastive Learning for Visual Representations [19.136685699971864]
視覚における「対照的」学習アルゴリズムは、伝達タスクにおいて非常によく機能する表現を学ぶために示されている。
このアルゴリズムの族は、画像の2つ以上の「ビュー」間の相互情報の低境界を最大化する。
負のサンプルとビューの選択は、これらのアルゴリズムの成功に不可欠である。
論文 参考訳(メタデータ) (2020-05-27T04:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。