論文の概要: Unlocking the Power of Open Set : A New Perspective for Open-Set Noisy
Label Learning
- arxiv url: http://arxiv.org/abs/2305.04203v2
- Date: Fri, 23 Feb 2024 08:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:26:08.984159
- Title: Unlocking the Power of Open Set : A New Perspective for Open-Set Noisy
Label Learning
- Title(参考訳): オープン・セットの力を解き放つ : オープン・セット・ラベル学習の新しい視点
- Authors: Wenhai Wan, Xinrui Wang, Ming-Kun Xie, Shao-Yuan Li, Sheng-Jun Huang,
Songcan Chen
- Abstract要約: 両タイプのラベルノイズに対処する2段階のコントラスト学習手法を提案する。
具体的には、性能を高めるために、いくつかのオープンセットの例をクローズドセットのクラスに組み込む。
- 参考スコア(独自算出の注目度): 58.4201336276109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from noisy data has attracted much attention, where most methods
focus on closed-set label noise. However, a more common scenario in the real
world is the presence of both open-set and closed-set noise. Existing methods
typically identify and handle these two types of label noise separately by
designing a specific strategy for each type. However, in many real-world
scenarios, it would be challenging to identify open-set examples, especially
when the dataset has been severely corrupted. Unlike the previous works, we
explore how models behave when faced with open-set examples, and find that
\emph{a part of open-set examples gradually get integrated into certain known
classes}, which is beneficial for the separation among known classes. Motivated
by the phenomenon, we propose a novel two-step contrastive learning method CECL
(Class Expansion Contrastive Learning) which aims to deal with both types of
label noise by exploiting the useful information of open-set examples.
Specifically, we incorporate some open-set examples into closed-set classes to
enhance performance while treating others as delimiters to improve
representative ability. Extensive experiments on synthetic and real-world
datasets with diverse label noise demonstrate the effectiveness of CECL.
- Abstract(参考訳): ノイズデータから学ぶことは多くの注目を集め、ほとんどの方法はクローズドセットのラベルノイズに焦点を当てている。
しかし、現実世界でより一般的なシナリオは、オープンセットとクローズドセットの両方のノイズの存在である。
既存の手法では、これらの2種類のラベルノイズを個別に識別・処理し、それぞれのタイプの特定の戦略を設計する。
しかし、多くの現実のシナリオでは、特にデータセットがひどく破損している場合、オープンセットの例を特定するのは難しいでしょう。
これまでの作品とは異なり、オープンセットの例に直面するとモデルがどのように振る舞うかを調べ、オープンセットの例の一部である \emph{a} が徐々に既知のクラスに統合され、既知のクラス間での分離に有用であることが分かる。
この現象に動機づけられた2段階のコントラスト学習法cecl(class expansion contrastive learning)を提案する。
具体的には、オープンセットの例をクローズドセットクラスに組み込んでパフォーマンスを高め、他の例をデリミタとして扱い、代表能力を高めます。
多様なラベルノイズを持つ合成および実世界のデータセットに関する大規模な実験はCECLの有効性を示す。
関連論文リスト
- Dirichlet-Based Coarse-to-Fine Example Selection For Open-Set Annotation [37.33424244520009]
本稿では,ディリクレに基づく大まかな実例選択(DCFS)戦略を提案する。
本手法では, 翻訳の不変性を損なうために, 単純なx-based obviousial Deep Learning (EDL)を導入している。
様々なオープンネス比データセットの実験は、DCFSが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-09-26T07:47:50Z) - Unleashing the Potential of Open-set Noisy Samples Against Label Noise for Medical Image Classification [45.319828759068415]
医用画像分類タスクのための拡張ノイズ・ロバスト・コントラスト・オープンセット機能拡張フレームワークを提案する。
このフレームワークにはExtensioned Noise-robust Supervised Convistive Lossが含まれている。
また、機能レベルでオープンセットのサンプルを豊かにするOpen-set Feature Augmentationモジュールを開発し、それらを動的クラスラベルに割り当てます。
論文 参考訳(メタデータ) (2024-06-18T05:54:28Z) - Open-Set Facial Expression Recognition [42.62439125553367]
顔表情認識(FER)モデルは一般的に、7つの基本クラスを固定したデータセットで訓練される。
最近の研究では、基本的なものよりもはるかに多くの表現が存在することが指摘されている。
オープンセットFERタスクを初めて提案する。
論文 参考訳(メタデータ) (2024-01-23T05:57:50Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - Open-Set Representation Learning through Combinatorial Embedding [62.05670732352456]
ラベル付きクラスとラベルなしクラスの両方の例に基づく表現学習を通じて、データセットにおける新しい概念を識別することに興味がある。
異種ラベル空間上の複数の教師付きメタクラス分類器によって与えられる構成知識を用いて、自然に未知のクラス内のサンプルをクラスタリングする学習手法を提案する。
提案アルゴリズムは,未確認クラスの識別性の向上と,新しいクラスに一般化可能な既知のクラス表現の学習を併用して,新しい概念を探索する。
論文 参考訳(メタデータ) (2021-06-29T11:51:57Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Approximating Instance-Dependent Noise via Instance-Confidence Embedding [87.65718705642819]
マルチクラス分類におけるラベルノイズは、学習システムの展開にとって大きな障害である。
インスタンス依存ノイズ(IDN)モデルを調査し、IDNの効率的な近似を提案し、インスタンス固有のラベル破損を捕捉する。
論文 参考訳(メタデータ) (2021-03-25T02:33:30Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。